전체 글
-
-
LGBM 하이퍼 파라미터<Python>/[Model] 2022. 6. 11. 21:00
LGBM 하이퍼 파라미터 num_iterations(default : 100) : =n_estimator learning_rate(Default : 0.1) max_depth(Default : -1) min_data_in_leaf(Default : 20) num_leaves(Default : 31) boosting(Default : gbdt) bagging_fraction(Default : 1.0) feature_fraction(Default : 1.0) lambda_l2(Default : 0.0) lambda_l1(Default : 0.0) 'boosting_type': 'dart # ‘gbdt’, traditional Gradient Boosting Decision Tree. ‘dart’, Dropo..
-
XGB 파라미터<Python>/[Model] 2022. 6. 11. 20:59
XGB 파라미터 일반 파라미터 booster(Default : ) silent(Default : ) nthread(Default : ) 부스터 파라미터 eta(Default : ) num_boost_rounds(Default : ) min_child_weight(Default : ) gamma(Default : ) max_depth(Default : ) sub_sample(Default : ) colsample_bytree(Default : ) lambda(Default : ) alpha(Default : ) scale_pos_weight(Default : ) 학습 테스크 파라미터 objective(Default : ) binary:logistic(Default : ) multi:softprob(Defa..
-
결정 나무<Python>/[Model] 2022. 6. 11. 17:23
결정 트리 : 균일도(혼잡도)가 높은 데이터를 먼저 분할 균일도 측정 : 정보이득(=1-엔트로피) 엔트로피=다양한 데이터(혼잡도가 높다) 지니계수 : 1로갈수록 균일도가 높다 장점 : 변수 스케일링, 정규화 필요없음 단점 : 과적합 DecisionTreeClassifier/DecisionTreeRegressor 파라미터 min_samples_split(Default : 2) : 분할가능? min_samples_leaf(Default : 1) : 말단노드 가능? max_features(Default : None) : 고려할 변수개수, None이면 모든 변수사용, sqrt=auto->루트(전체변수개수), log->log2(전체변수개수) max_depth(Default : None) : None이면 깊이무제한..
-
-