728x90

<Python>/[Model] 10

결정 나무

결정 트리 : 균일도(혼잡도)가 높은 데이터를 먼저 분할 균일도 측정 : 정보이득(=1-엔트로피) 엔트로피=다양한 데이터(혼잡도가 높다) 지니계수 : 1로갈수록 균일도가 높다 장점 : 변수 스케일링, 정규화 필요없음 단점 : 과적합 DecisionTreeClassifier/DecisionTreeRegressor 파라미터 min_samples_split(Default : 2) : 분할가능? min_samples_leaf(Default : 1) : 말단노드 가능? max_features(Default : None) : 고려할 변수개수, None이면 모든 변수사용, sqrt=auto->루트(전체변수개수), log->log2(전체변수개수) max_depth(Default : None) : None이면 깊이무제한..

<Python>/[Model] 2022.06.11

파이썬 LinearSVC

LinearSVC from sklearn.svm import LinearSVC model = LinearSVC() LinearSVC 파라미터 # penalty = {‘l1’, ‘l2’}, 기본값=’l2’ # loss = {‘hinge’, ‘squared_hinge’}, 기본값=’squared_hinge’ # dual = bool, 기본값=True # tol = float, 기본값=1e-4 # C = float, 기본값=1.0 # multi_class = {‘ovr’, ‘crammer_singer’}, 기본값=’ovr’ # class_weight = {dict, ‘balanced’}, 기본값=None # fit_intercept = bool, 기본값=True # intercept_scaling = floa..

<Python>/[Model] 2021.12.24

파이썬 SVM

SVM from sklearn.svm import SVC model = SVC(C=10, gamma=1, random_state=1, probability=True) #gamma='auto' SVM 파라미터 # C=float, default=1.0 # kernel={‘linear’, ‘poly’, ‘rbf’, ‘sigmoid’, ‘precomputed’}, default=’rbf’ # degree=int, default=3 # gamma={‘scale’, ‘auto’} or float, default=’scale’ # 'rbf', 'poly','sigmoid'에 대한 커널계수 # coef0=float, default=0.0 #coef0는 모델이 높은 차수와 낮은 차수에 얼마나 영향을 끼치는지 정할 수 있..

<Python>/[Model] 2021.12.24

파이썬 랜덤포레스트

랜덤포레스트 from sklearn.ensemble import RandomForestClassifier model = RandomForestClassifier(max_depth=10, n_estimators=100) 랜덤포레스트 # n_estimators=int, default=100 # criterion={“gini”, “entropy”}, default=”gini” # min_samples_split={int, float} ,default=2 # min_samples_leaf={int, float}, default=1 # min_weight_fraction_leaf=float, default=0.0 # max_depth=int, default=None # max_features={“auto”, “s..

<Python>/[Model] 2021.12.24

파이썬 로지스틱 분류

로지스틱 분류 from sklearn.linear_model import LogisticClassifier model = LogisticClassifier(solver="lbfgs", random_state=42) 로지스틱 분류 파라미터 penalty = {‘l1’, ‘l2’, ‘elasticnet’, ‘none’}, default=’l2’ dual = bool, 기본값 = 'False' # 1. liblinear 솔버를 사용하는 l2 패널티에 대해서만 구현 # 2. n_samples > n_features인 경우 dual=False를 선호 solver = {'newton-cg', 'lbfgs', 'liblinear', 'sag', 'saga'}, 기본값='lbfgs' # LIBLINEAR is a li..

<Python>/[Model] 2021.12.24

파이썬 KNN

knn from sklearn.neighbors import KNeighborsClassifier model = KNeighborsClassifier(n_neighbors=4, metric='euclidean') knn 파라미터 algorithm = {‘auto’, ‘ball_tree’, ‘kd_tree’, ‘brute’}, default=’auto’ # 가장 가까운 이웃을 계산하는 데 사용되는 알고리즘: # Brute Force 최접근 이웃의 빠른 계산은 기계학습에서 활발한 리서치 분야이다. 가장 초보수준의 이웃 탐색 구현은 데이터셋 내 지점의 모든 쌍의 거리를 억지로(brute-force) 계산하는 것이다. 효율적인 brute-force 이웃 탐색은 작은 데이터 샘플에 대해서는 매우 경쟁력이 있다. ..

<Python>/[Model] 2021.12.24

파이썬 결정나무

결정나무 from sklearn.tree import DecisionTreeClassifier model = DecisionTreeClassifier(random_state=1, max_depth=10) 결정나무 파라미터 # criterion={“gini”, “entropy”}, default=”gini” # splitter={“best”, “random”}, default=”best” # min_samples_split={int, float}, default=2 # 내부 노드를 분할하는 데 필요한 최소 샘플 수 # min_samples_leaf={int, float}, default=1 # 리프 노드에 있어야 하는 최소 샘플 수 # min_weight_fraction_leaf=float, default..

<Python>/[Model] 2021.12.24
728x90