파라미터
-
sklearn.isotonic.isotonic_regression 파라미터 정리<Python>/[Sklearn] 2021. 12. 30. 18:39
isotonic.isotonic_regression sklearn.isotonic.isotonic_regression(y, *, sample_weight=None, y_min=None, y_max=None, increasing=True) isotonic.isotonic_regression 파라미터 y = array-like of shape (n_samples,) # The data. sample_weightarray-like of shape (n_samples,), default=None # 회귀의 각 지점에 대한 가중치입니다. None이면 가중치가 1(동일한 가중치)로 설정됩니다. y_min = float, default=None # 가장 낮은 예측값의 하한값(최소값은 여전히 높을 수 있음). 설정..
-
sklearn.isotonic.check_increasing 파라미터 정리<Python>/[Sklearn] 2021. 12. 30. 18:00
isotonic.check_increasing sklearn.isotonic.check_increasing(x, y) isotonic.check_increasing 파라미터 # x가 증가하면 y도 단조적으로 증가하는지(True)/감소하는지(False) 파악 x = array-like of shape (n_samples,) # Training data y = array-like of shape (n_samples,) # Training target
-
sklearn.isotonic.IsotonicRegression 파라미터 정리<Python>/[Sklearn] 2021. 12. 30. 17:51
IsotonicRegression(등장성 회귀) class sklearn.isotonic.IsotonicRegression(*, y_min=None, y_max=None, increasing=True, out_of_bounds='nan') from sklearn.isotonic import IsotonicRegression IsotonicRegression 파라미터 y_min = float, default=None # 가장 낮은 예측값의 하한값(최소값은 여전히 높을 수 있음). 설정하지 않으면 기본값은 -inf입니다. y_max = float, default=None # 가장 높은 예측 값의 상한값(최대값은 여전히 낮을 수 있음). 설정하지 않으면 기본값은 +inf입니다. increasing = ..
-
sklearn.inspection.plot_partial_dependence 파라미터 정리<Python>/[Sklearn] 2021. 12. 30. 15:39
plot_partial_dependence plot_partial_dependence은 1.0에서 더 이상 사용되지 않으며 1.2에서 제거됩니다. 대신 PartialDependenceDisplay.from_estimator를 사용하십시오. from sklearn.inspection import plot_partial_dependence plot_partial_dependence 파라미터 estimator = BaseEstimator X = {array-like, dataframe} of shape (n_samples, n_features) features = list of {int, str, pair of int, pair of str} feature_names = array-like of shape (..
-
sklearn.impute.MissingIndicator 파라미터 정리<Python>/[Sklearn] 2021. 12. 28. 17:48
MissingIndicator class sklearn.impute.MissingIndicator(*, missing_values=nan, features='missing-only', sparse='auto', error_on_new=True) from sklearn.impute import MissingIndicator MissingIndicator 파라미터 missing_values = {int, float, str, np.nan, None}, default=np.nan features = {‘missing-only’, ‘all’}, default=’missing-only’ sparse = bool or ‘auto’, default=’auto’ 'auto'(기본값) 경우, imputer 마스크는 입력..
-
sklearn.impute.IterativeImputer 파라미터 정리<Python>/[Sklearn] 2021. 12. 28. 16:07
IterativeImputer(회귀대치) class sklearn.impute.IterativeImputer(estimator=None, *, missing_values=nan, sample_posterior=False, max_iter=10, tol=0.001, n_nearest_features=None, initial_strategy='mean', imputation_order='ascending', skip_complete=False, min_value=- inf, max_value=inf, verbose=0, random_state=None, add_indicator=False) from sklearn.experimental import enable_iterative_imputer from skl..
-
파이썬 SVM<Python>/[Model] 2021. 12. 24. 20:17
SVM from sklearn.svm import SVC model = SVC(C=10, gamma=1, random_state=1, probability=True) #gamma='auto' SVM 파라미터 # C=float, default=1.0 # kernel={‘linear’, ‘poly’, ‘rbf’, ‘sigmoid’, ‘precomputed’}, default=’rbf’ # degree=int, default=3 # gamma={‘scale’, ‘auto’} or float, default=’scale’ # 'rbf', 'poly','sigmoid'에 대한 커널계수 # coef0=float, default=0.0 #coef0는 모델이 높은 차수와 낮은 차수에 얼마나 영향을 끼치는지 정할 수 있..
-
파이썬 랜덤포레스트<Python>/[Model] 2021. 12. 24. 18:39
랜덤포레스트 from sklearn.ensemble import RandomForestClassifier model = RandomForestClassifier(max_depth=10, n_estimators=100) 랜덤포레스트 # n_estimators=int, default=100 # criterion={“gini”, “entropy”}, default=”gini” # min_samples_split={int, float} ,default=2 # min_samples_leaf={int, float}, default=1 # min_weight_fraction_leaf=float, default=0.0 # max_depth=int, default=None # max_features={“auto”, “s..