<Python>/[Sklearn]
-
sklearn.inspection.permutation_importance 파라미터 정리<Python>/[Sklearn] 2021. 12. 29. 22:56
permutation_importance sklearn.inspection. permutation_importance ( estimator , X , y , * , 점수 = 없음 , n_repeats = 5 , n_jobs = 없음 , random_state = 없음 , sample_weight = 없음 , max_samples = 1.0 ) from sklearn.inspection import permutation_importance permutation_importance 파라미터 estimator = object X = ndarray or DataFrame, shape (n_samples, n_features) y = array-like or None, shape (n_samples, ) or (..
-
sklearn.inspection.partial_dependence 파라미터 정리<Python>/[Sklearn] 2021. 12. 29. 21:38
이전글 : 2021.12.29 - [/[Sklearn]] - sklearn.inspection.partial_dependence(이론) sklearn.inspection.partial_dependence(이론) partial_dependence Partial Dependence Function(부분의존도 함수) 용어 : partial는 회귀계수(가중치)를 의미한다. 베이스 : 주변확률분포 사용 목적 : target과 관심있는 변수의 평균영향력 or 관계를 알고자.. 9566.tistory.com partial_dependence sklearn.inspection.partial_dependence(estimator, X, features, *, response_method='auto', percentile..
-
sklearn.inspection.partial_dependence(이론)<Python>/[Sklearn] 2021. 12. 29. 20:02
partial_dependence Partial Dependence Function(부분의존도 함수) 용어 : partial는 회귀계수(가중치)를 의미한다. 베이스 : 주변확률분포 사용 목적 : target과 관심있는 변수의 평균영향력 or 관계를 알고자 쓴다. 사용법 : (’고정’이라는 단어를 사용한다.) 관심없는 변수(학위, 인종)는 놔두고 관심있는 변수(성별)를 고정시켜(=주변확률분포를 쓴다.) target(연봉 5천 이상=1, 이하=0)를 예측한다. 관심없는 변수(x1=학위, x2 = 인종)와 관심있는 변수(y=성별)로 아래와 같이 표를 만들면 3차원표가 만들어진다.(이론) 3. 사용하려면 3차원→1차원으로 바꿔야하지만 어려워 주변확률분포를 구하긴 힘들다.(이론) 4. 대체하자. 주변확률분포를 데..
-
sklearn.impute.KNNImputer 파라미터 정리<Python>/[Sklearn] 2021. 12. 28. 19:19
KNNImputer class sklearn.impute.KNNImputer(*, missing_values=nan, n_neighbors=5, weights='uniform', metric='nan_euclidean', copy=True, add_indicator=False) from sklearn.impute import KNNImputer KNNImputer 파라미터 missing_values = {int, float, str, np.nan, None}, default=np.nan n_neighbors = int, default=5 weights = {‘uniform’, ‘distance’} or callable, default=’uniform’ # 예측에 사용되는 가중치 함수입니다. 가능한 값: ..
-
sklearn.impute.MissingIndicator 파라미터 정리<Python>/[Sklearn] 2021. 12. 28. 17:48
MissingIndicator class sklearn.impute.MissingIndicator(*, missing_values=nan, features='missing-only', sparse='auto', error_on_new=True) from sklearn.impute import MissingIndicator MissingIndicator 파라미터 missing_values = {int, float, str, np.nan, None}, default=np.nan features = {‘missing-only’, ‘all’}, default=’missing-only’ sparse = bool or ‘auto’, default=’auto’ 'auto'(기본값) 경우, imputer 마스크는 입력..
-
sklearn.impute.IterativeImputer 파라미터 정리<Python>/[Sklearn] 2021. 12. 28. 16:07
IterativeImputer(회귀대치) class sklearn.impute.IterativeImputer(estimator=None, *, missing_values=nan, sample_posterior=False, max_iter=10, tol=0.001, n_nearest_features=None, initial_strategy='mean', imputation_order='ascending', skip_complete=False, min_value=- inf, max_value=inf, verbose=0, random_state=None, add_indicator=False) from sklearn.experimental import enable_iterative_imputer from skl..
-
sklearn.impute.SimpleImputer 파라미터 정리<Python>/[Sklearn] 2021. 12. 27. 22:38
SimpleImputer class sklearn.impute.SimpleImputer(*, missing_values=nan, strategy='mean', fill_value=None, verbose=0, copy=True, add_indicator=False) from sklearn.impute import SimpleImputer SimpleImputer 파라미터 missing_values = {int, float, str, np.nan or None}, default=np.nan strategy = str, default=’mean’ # mean, median, constant : 숫자형 # most_frequent : 숫자형, 범주형 fill_value = {str, numerical valu..