파이썬
-
sklearn.inspection.PartialDependenceDisplay 파라미터 정리<Python>/[Sklearn] 2021. 12. 29. 23:04
PartialDependenceDisplay class sklearn.inspection.PartialDependenceDisplay(pd_results, *, features, feature_names, target_idx, pdp_lim, deciles, kind='average', subsample=1000, random_state=None) from sklearn.inspection import PartialDependenceDisplay PartialDependenceDisplay 파라미터 pd_results = list of Bunch # 변수에 대한 partial_dependence 결과 features = list of (int,) or list of (int, int) # 변수의 인덱스 ..
-
파이썬 LinearSVC<Python>/[Model] 2021. 12. 24. 21:12
LinearSVC from sklearn.svm import LinearSVC model = LinearSVC() LinearSVC 파라미터 # penalty = {‘l1’, ‘l2’}, 기본값=’l2’ # loss = {‘hinge’, ‘squared_hinge’}, 기본값=’squared_hinge’ # dual = bool, 기본값=True # tol = float, 기본값=1e-4 # C = float, 기본값=1.0 # multi_class = {‘ovr’, ‘crammer_singer’}, 기본값=’ovr’ # class_weight = {dict, ‘balanced’}, 기본값=None # fit_intercept = bool, 기본값=True # intercept_scaling = floa..
-
파이썬 SVM<Python>/[Model] 2021. 12. 24. 20:17
SVM from sklearn.svm import SVC model = SVC(C=10, gamma=1, random_state=1, probability=True) #gamma='auto' SVM 파라미터 # C=float, default=1.0 # kernel={‘linear’, ‘poly’, ‘rbf’, ‘sigmoid’, ‘precomputed’}, default=’rbf’ # degree=int, default=3 # gamma={‘scale’, ‘auto’} or float, default=’scale’ # 'rbf', 'poly','sigmoid'에 대한 커널계수 # coef0=float, default=0.0 #coef0는 모델이 높은 차수와 낮은 차수에 얼마나 영향을 끼치는지 정할 수 있..
-
파이썬 랜덤포레스트<Python>/[Model] 2021. 12. 24. 18:39
랜덤포레스트 from sklearn.ensemble import RandomForestClassifier model = RandomForestClassifier(max_depth=10, n_estimators=100) 랜덤포레스트 # n_estimators=int, default=100 # criterion={“gini”, “entropy”}, default=”gini” # min_samples_split={int, float} ,default=2 # min_samples_leaf={int, float}, default=1 # min_weight_fraction_leaf=float, default=0.0 # max_depth=int, default=None # max_features={“auto”, “s..
-
파이썬 로지스틱 분류<Python>/[Model] 2021. 12. 24. 17:57
로지스틱 분류 from sklearn.linear_model import LogisticClassifier model = LogisticClassifier(solver="lbfgs", random_state=42) 로지스틱 분류 파라미터 penalty = {‘l1’, ‘l2’, ‘elasticnet’, ‘none’}, default=’l2’ dual = bool, 기본값 = 'False' # 1. liblinear 솔버를 사용하는 l2 패널티에 대해서만 구현 # 2. n_samples > n_features인 경우 dual=False를 선호 solver = {'newton-cg', 'lbfgs', 'liblinear', 'sag', 'saga'}, 기본값='lbfgs' # LIBLINEAR is a li..
-
파이썬 KNN<Python>/[Model] 2021. 12. 24. 17:39
knn from sklearn.neighbors import KNeighborsClassifier model = KNeighborsClassifier(n_neighbors=4, metric='euclidean') knn 파라미터 algorithm = {‘auto’, ‘ball_tree’, ‘kd_tree’, ‘brute’}, default=’auto’ # 가장 가까운 이웃을 계산하는 데 사용되는 알고리즘: # Brute Force 최접근 이웃의 빠른 계산은 기계학습에서 활발한 리서치 분야이다. 가장 초보수준의 이웃 탐색 구현은 데이터셋 내 지점의 모든 쌍의 거리를 억지로(brute-force) 계산하는 것이다. 효율적인 brute-force 이웃 탐색은 작은 데이터 샘플에 대해서는 매우 경쟁력이 있다. ..
-
파이썬 Numpy 난수 추출<Python>/[Numpy] 2021. 12. 20. 16:15
함수 제작 1. 정수 난수 1개 생성 np.random.randint(10) # 0~10사이의 아무거나 하나를 뽑는다. 2. 균일 분포(0~1)에서 난수 matrix array 생성 np.random.rand(5, 10) # 0~1사이의 5행 10열의 데이터를 뽑는다. 3. 표준 정규 분포(-n~n)에서 난수 matrix array 생성 np.random.randn(5, 10) # -n~n사이의 5행 10열의 데이터를 뽑는다. 실습 코드 import numpy as np # 1. 정수 난수 1개 생성 np.random.randint(10) # 0~10사이의 아무거나 하나를 뽑는다. # 2. 균일 분포(0~1)에서 난수 matrix array 생성 np.random.rand(5, 10) # 0~1사이의 5..
-
파이썬 Pandas DataFrame 함수 제작<Python>/[DataFrame] 2021. 12. 19. 21:50
함수 제작 1. 사용자 제작 함수 .apply(사용자 제작 함수) # 사용자가 만든 함수를 적용할수있다. ex)np.sum, np.square 2. 사용자 제작 함수 df.mean(axis=1) # 한행의 모든 값의 평균 3. 사용자 제작 함수 .aggregate([min, np.median, max]) 4.사용자 제작 함수 .aggregate({'X1' : min, 'X2' : sum}) 실습 코드 import pandas as pd import numpy as np df = pd.DataFrame({ 'X1': [0, 1, 2, 4, 0, 1, 2, 4], 'X2': [5, 7, np.nan, 9, 0, 1, 2, 4], 'X3': [np.nan, 10, np.nan, 12, 0, 1, 2, 4]})..