<Python>
-
TypeError: float() argument must be a string or a number, not 'method'<Python>/[오류 메세지] 2022. 6. 30. 16:18
- 사례 1 from sklearn.experimental import enable_iterative_imputer from sklearn.impute import IterativeImputer # train = 아무 데이터프레임 가능 (대신 모든변수가 float, int 형태) df = train.copy # train.copy()로 변경 df = IterativeImputer(random_state=2021).fit_transform(df) df = pd.DataFrame(df) df.columns = train.columns df - 사례2
-
기본 모델<Python>/[Pytorch] 2022. 6. 17. 17:34
nn.Sequential(nn.Linear(2000, 4000), GELU(), nn.BatchNorm1d(4000)) nn.Sequential nn.ModuleList nn.Linear(입력층 차원, 출력층 차원) nn.BatchNorm1d : 정규화 기능 nn.Dropout(p) : 정규화 기능 + 신경망 과적합 방지 nn.Module nn.Parameter 잔차연결(skip connection) : 이전층의 정보를 이용하기 위해 이전층의 정보를 연결 계층정규화 활성화함수(GELU())-> 배치정규화(nn.BatchNorm1d)->계층정규화(클래스 LayerNorm ->> (x-평균)/표준편차) ->드롭아웃()-> 손실함수 -> 옵티마이저/옵티마이저 학습률 실제값-예측값을 바탕으로 퍼셉트론계수 최적화..
-
LGBM 하이퍼 파라미터<Python>/[Model] 2022. 6. 11. 21:00
LGBM 하이퍼 파라미터 num_iterations(default : 100) : =n_estimator learning_rate(Default : 0.1) max_depth(Default : -1) min_data_in_leaf(Default : 20) num_leaves(Default : 31) boosting(Default : gbdt) bagging_fraction(Default : 1.0) feature_fraction(Default : 1.0) lambda_l2(Default : 0.0) lambda_l1(Default : 0.0) 'boosting_type': 'dart # ‘gbdt’, traditional Gradient Boosting Decision Tree. ‘dart’, Dropo..
-
XGB 파라미터<Python>/[Model] 2022. 6. 11. 20:59
XGB 파라미터 일반 파라미터 booster(Default : ) silent(Default : ) nthread(Default : ) 부스터 파라미터 eta(Default : ) num_boost_rounds(Default : ) min_child_weight(Default : ) gamma(Default : ) max_depth(Default : ) sub_sample(Default : ) colsample_bytree(Default : ) lambda(Default : ) alpha(Default : ) scale_pos_weight(Default : ) 학습 테스크 파라미터 objective(Default : ) binary:logistic(Default : ) multi:softprob(Defa..
-
결정 나무<Python>/[Model] 2022. 6. 11. 17:23
결정 트리 : 균일도(혼잡도)가 높은 데이터를 먼저 분할 균일도 측정 : 정보이득(=1-엔트로피) 엔트로피=다양한 데이터(혼잡도가 높다) 지니계수 : 1로갈수록 균일도가 높다 장점 : 변수 스케일링, 정규화 필요없음 단점 : 과적합 DecisionTreeClassifier/DecisionTreeRegressor 파라미터 min_samples_split(Default : 2) : 분할가능? min_samples_leaf(Default : 1) : 말단노드 가능? max_features(Default : None) : 고려할 변수개수, None이면 모든 변수사용, sqrt=auto->루트(전체변수개수), log->log2(전체변수개수) max_depth(Default : None) : None이면 깊이무제한..
-
sklearn.manifold.trustworthiness 파라미터<Python>/[Sklearn] 2022. 1. 14. 22:41
trustworthiness sklearn.manifold.trustworthiness(X, X_embedded, *, n_neighbors=5, metric='euclidean') trustworthiness 파라미터 Xndarray of shape (n_samples, n_features) or (n_samples, n_samples) X_embeddedndarray of shape (n_samples, n_components) n_neighborsint, default=5 metricstr or callable, default=’euclidean’
-
sklearn.manifold.spectral_embedding 파라미터<Python>/[Sklearn] 2022. 1. 14. 22:40
spectral_embedding sklearn.manifold.spectral_embedding(adjacency, *, n_components=8, eigen_solver=None, random_state=None, eigen_tol=0.0, norm_laplacian=True, drop_first=True) spectral_embedding 파라미터 adjacency{array-like, sparse graph} of shape (n_samples, n_samples) n_componentsint, default=8 eigen_solver{‘arpack’, ‘lobpcg’, ‘amg’}, default=None random_stateint, RandomState instance or None, de..