분류 전체보기
-
-
파이썬 LinearSVC<Python>/[Model] 2021. 12. 24. 21:12
LinearSVC from sklearn.svm import LinearSVC model = LinearSVC() LinearSVC 파라미터 # penalty = {‘l1’, ‘l2’}, 기본값=’l2’ # loss = {‘hinge’, ‘squared_hinge’}, 기본값=’squared_hinge’ # dual = bool, 기본값=True # tol = float, 기본값=1e-4 # C = float, 기본값=1.0 # multi_class = {‘ovr’, ‘crammer_singer’}, 기본값=’ovr’ # class_weight = {dict, ‘balanced’}, 기본값=None # fit_intercept = bool, 기본값=True # intercept_scaling = floa..
-
파이썬 SVM<Python>/[Model] 2021. 12. 24. 20:17
SVM from sklearn.svm import SVC model = SVC(C=10, gamma=1, random_state=1, probability=True) #gamma='auto' SVM 파라미터 # C=float, default=1.0 # kernel={‘linear’, ‘poly’, ‘rbf’, ‘sigmoid’, ‘precomputed’}, default=’rbf’ # degree=int, default=3 # gamma={‘scale’, ‘auto’} or float, default=’scale’ # 'rbf', 'poly','sigmoid'에 대한 커널계수 # coef0=float, default=0.0 #coef0는 모델이 높은 차수와 낮은 차수에 얼마나 영향을 끼치는지 정할 수 있..
-
파이썬 랜덤포레스트<Python>/[Model] 2021. 12. 24. 18:39
랜덤포레스트 from sklearn.ensemble import RandomForestClassifier model = RandomForestClassifier(max_depth=10, n_estimators=100) 랜덤포레스트 # n_estimators=int, default=100 # criterion={“gini”, “entropy”}, default=”gini” # min_samples_split={int, float} ,default=2 # min_samples_leaf={int, float}, default=1 # min_weight_fraction_leaf=float, default=0.0 # max_depth=int, default=None # max_features={“auto”, “s..
-
파이썬 로지스틱 분류<Python>/[Model] 2021. 12. 24. 17:57
로지스틱 분류 from sklearn.linear_model import LogisticClassifier model = LogisticClassifier(solver="lbfgs", random_state=42) 로지스틱 분류 파라미터 penalty = {‘l1’, ‘l2’, ‘elasticnet’, ‘none’}, default=’l2’ dual = bool, 기본값 = 'False' # 1. liblinear 솔버를 사용하는 l2 패널티에 대해서만 구현 # 2. n_samples > n_features인 경우 dual=False를 선호 solver = {'newton-cg', 'lbfgs', 'liblinear', 'sag', 'saga'}, 기본값='lbfgs' # LIBLINEAR is a li..
-
파이썬 KNN<Python>/[Model] 2021. 12. 24. 17:39
knn from sklearn.neighbors import KNeighborsClassifier model = KNeighborsClassifier(n_neighbors=4, metric='euclidean') knn 파라미터 algorithm = {‘auto’, ‘ball_tree’, ‘kd_tree’, ‘brute’}, default=’auto’ # 가장 가까운 이웃을 계산하는 데 사용되는 알고리즘: # Brute Force 최접근 이웃의 빠른 계산은 기계학습에서 활발한 리서치 분야이다. 가장 초보수준의 이웃 탐색 구현은 데이터셋 내 지점의 모든 쌍의 거리를 억지로(brute-force) 계산하는 것이다. 효율적인 brute-force 이웃 탐색은 작은 데이터 샘플에 대해서는 매우 경쟁력이 있다. ..
-
파이썬 결정나무<Python>/[Model] 2021. 12. 24. 16:10
결정나무 from sklearn.tree import DecisionTreeClassifier model = DecisionTreeClassifier(random_state=1, max_depth=10) 결정나무 파라미터 # criterion={“gini”, “entropy”}, default=”gini” # splitter={“best”, “random”}, default=”best” # min_samples_split={int, float}, default=2 # 내부 노드를 분할하는 데 필요한 최소 샘플 수 # min_samples_leaf={int, float}, default=1 # 리프 노드에 있어야 하는 최소 샘플 수 # min_weight_fraction_leaf=float, default..
-
빅분기 실기 3회차 합격수기<자격증>/[빅데이터분석기사] 2021. 12. 24. 14:54
이렇게 미리 사전고지를 한걸 보면 아무래도 주최측에서 고치고자 하는게 많을 거 같아 사전 고지를 한 것 같습니다. 작업형 제 2유형의 경우, 무지성으로 랜덤포레스트를 사용했습니다. 사용했을 때 model.score() 결과, 0.78정도 나왔어서 대강 20점은 받겠다고 생각했습니다. 어차피 작업형 제 1유형은 다맞을거란 생각을 했었습니다.(30점 확보) 그래서 단답형이 어렵긴 했긴 했지만 확실히 10점은 맞추고자 했습니다. 혹시 몰라 20점은 받아야겠다 생각했지만 18점이 나왔네요. 이런 18 결과적으로 작업형 제 2유형에서 만점이 나왔고 이런 결과가 나와서 상당히 놀랐습니다. 결과적으론 제가 생각했던 공부법이 유효하게 맞아떨어진것 같습니다. 시간 남을 때 빅분기 5일 완성을 완성시켜야겠습니다.