MLPCIassifier에서 (loss_curve_)가 획득한 손실 값을 적절하게 표시하려면 다음 단계를 수행할 수 있습니다.
- 그림 크기를 설정하고 서브플롯 사이 및 주변 여백을 조정합니다.
- 사전 목록인 params를 만드세요.
- 레이블 목록을 만들고 인수를 구성합니다.
- nrows=2 및 ncols=를 사용하여 Figure와 서브플롯 세트 생성
- 홍채 데이터세트(분류)를 로드하고 반환합니다.
- 데이터세트에서 x_digits 및 y_digits 가져오기
- 맞춤형 data_set, 튜플 목록을 가져옵니다.
- zip 파일, 축, data_sets 및 제목 목록을 반복합니다.
- plot_on_dataset()에서 방법; 현재 축의 제목을 설정합니다.
- 다층 퍼셉트론 분류기 인스턴스를 가져옵니다.
- mlps 받기 , 즉 mlpc 인스턴스 목록입니다.
- mlps 반복 플롯 mlp.loss_curve_ plot() 사용 방법.
- 그림을 표시하려면 show()를 사용하세요. 방법.
예
import warnings import matplotlib.pyplot as plt from sklearn.neural_network import MLPClassifier from sklearn.preprocessing import MinMaxScaler from sklearn import datasets from sklearn.exceptions import ConvergenceWarning plt.rcParams["figure.figsize"] = [7.50, 3.50] plt.rcParams["figure.autolayout"] = True params = [{'solver': 'sgd', 'learning_rate': 'constant', 'momentum': 0, 'learning_rate_init': 0.2}, {'solver': 'sgd', 'learning_rate': 'constant', 'momentum': .9, 'nesterovs_momentum': False, 'learning_rate_init': 0.2}, {'solver': 'sgd', 'learning_rate': 'constant', 'momentum': .9, 'nesterovs_momentum': True, 'learning_rate_init': 0.2}, {'solver': 'sgd', 'learning_rate': 'invscaling', 'momentum': 0, 'learning_rate_init': 0.2}, {'solver': 'sgd', 'learning_rate': 'invscaling', 'momentum': .9, 'nesterovs_momentum': True, 'learning_rate_init': 0.2}, {'solver': 'sgd', 'learning_rate': 'invscaling', 'momentum': .9, 'nesterovs_momentum': False, 'learning_rate_init': 0.2}, {'solver': 'adam', 'learning_rate_init': 0.01}] labels = ["constant learning-rate", "constant with momentum", "constant with Nesterov's momentum", "inv-scaling learning-rate", "inv-scaling with momentum", "inv-scaling with Nesterov's momentum", "adam"] plot_args = [{'c': 'red', 'linestyle': '-'}, {'c': 'green', 'linestyle': '-'}, {'c': 'blue', 'linestyle': '-'}, {'c': 'red', 'linestyle': '--'}, {'c': 'green', 'linestyle': '--'}, {'c': 'blue', 'linestyle': '--'}, {'c': 'black', 'linestyle': '-'}] def plot_on_dataset(X, y, ax, name): ax.set_title(name) X = MinMaxScaler().fit_transform(X) mlps = [] if name == "digits": max_iter = 15 else: max_iter = 400 for label, param in zip(labels, params): mlp = MLPClassifier(random_state=0, max_iter=max_iter, **param) with warnings.catch_warnings(): warnings.filterwarnings("ignore", category=ConvergenceWarning, module="sklearn") mlp.fit(X, y) mlps.append(mlp) for mlp, label, args in zip(mlps, labels, plot_args): ax.plot(mlp.loss_curve_, label=label, **args) fig, axes = plt.subplots(2, 2) iris = datasets.load_iris() X_digits, y_digits = datasets.load_digits(return_X_y=True) data_sets = [(iris.data, iris.target), (X_digits, y_digits), datasets.make_circles(noise=0.2, factor=0.5, random_state=1), datasets.make_moons(noise=0.3, random_state=0)] for ax, data, name in zip(axes.ravel(), data_sets, ['iris', 'digits', 'circles', 'moons']): plot_on_dataset(*data, ax=ax, name=name) fig.legend(ax.get_lines(), labels, ncol=3, loc="upper center") plt.show()
출력