-
sklearn.linear_model.ridge_regression 파라미터<Python>/[Sklearn] 2022. 1. 14. 22:22728x90
ridge_regression
sklearn.linear_model.ridge_regression(X, y, alpha, *, sample_weight=None, solver='auto', max_iter=None, tol=0.001, verbose=0, positive=False, random_state=None, return_n_iter=False, return_intercept=False, check_input=True)
ridge_regression 파라미터
X{ndarray, sparse matrix, LinearOperator} of shape (n_samples, n_features)
yndarray of shape (n_samples,) or (n_samples, n_targets)
alphafloat or array-like of shape (n_targets,)
정규화 강도. 양의 부동 소수여야 합니다. 정규화는 문제의 컨디셔닝을 개선하고 추정치의 분산을 줄입니다. 값이 클수록 정규화가 강화됩니다. 로지스틱 회귀 분석 또는 선형SVC와 같은 다른 선형 모형에서 알파는 1 / (2C)에 해당합니다. 배열을 통과하면, 벌칙은 대상에 특정한 것으로 가정합니다. 그러므로 그들은 숫자에 부합해야 합니다.sample_weightfloat or array-like of shape (n_samples,), 기본값=None
각 표본에 대한 개별 가중치입니다. 플로트가 주어지면 모든 샘플의 무게는 같아집니다. sample_weight가 None이고 solver='auto'가 아니면 solver가 'cholesky'로 설정됩니다.solver{‘auto’, ‘svd’, ‘cholesky’, ‘lsqr’, ‘sparse_cg’, ‘sag’, ‘saga’, ‘lbfgs’}, 기본값=’auto’
계산 루틴에 사용할 해결제입니다.
'auto'는 데이터 유형에 따라 자동으로 솔버를 선택합니다.
'svd'는 X의 특이값 분해법을 사용하여 능선 계수를 계산합니다. 'cholesky'보다 단수 행렬에 대해 더 안정적입니다.
'cholesky'는 표준 scipy.linalg.solve 함수를 사용하여 점의 콜레스키 분해를 통해 닫힌 형태 해를 구합니다(X.T, X).
scipy.sparse.linalg.cg에서 볼 수 있는 것처럼 'ungradient solver'는 공액 그라데이션 솔버를 사용합니다. 반복 알고리즘으로서 이 솔버는 대규모 데이터(tol 및 max_iter를 설정할 가능성)의 경우 'cholesky'보다 더 적합합니다.
'lsqr'은 전용 정규화된 최소 스퀴프 루틴 scipy.linalg.lsqr을 사용합니다. 가장 빠르고 반복적인 절차를 사용합니다.
'sag'는 확률적 평균 경사 하강법을 사용하고, 'saga'는 SAGA라는 개선된 편향되지 않은 버전을 사용합니다. 두 방법 모두 반복 절차를 사용하며, n_sample과 n_feature가 모두 클 때 종종 다른 해결사보다 빠릅니다. 'sag'와 'saga'의 빠른 수렴은 거의 동일한 스케일의 기능에서만 보장됩니다. sklearn.preprocessing의 스칼러를 사용하여 데이터를 사전 처리할 수 있습니다.
'lbfgs'는 scipy.optimize.minimize로 구현된 L-BFGS-B 알고리즘을 사용합니다. 양수가 True일 때만 사용할 수 있습니다.
마지막 6개의 솔버는 모두 밀도가 높은 데이터와 희소 데이터를 모두 지원합니다. 그러나 fit_intercept가 True인 경우 'sag', 'sparse_cg' 및 'lbfgs'만 스파스 입력을 지원합니다.max_iterint, 기본값=None
짝수 그라데이션 솔버의 최대 반복 횟수입니다. sparse_cg' 및 'lsqr' 솔버의 경우 scipy.sparse.linalg에 의해 기 value 값이 결정됩니다. sag'와 saga 해결사의 경우, 기기 값은 1000입니다. 'lbfgs' 솔버의 경우, µgs 값은 15000입니다.tolfloat, 기본값=1e-3
용액의 정밀도입니다.verboseint, 기본값=0
장황도 수준입니다. 상세 >0을 설정하면 사용된 해결사에 따라 추가 정보가 표시됩니다.positivebool, 기본값=False
True로 설정하면 계수가 강제로 양수가 됩니다. 이 경우 'lbfgs' 솔버만 지원됩니다.random_stateint, RandomState instance, 기본값=None
return_n_iterbool, 기본값=False
return_interceptbool, 기본값=False
True이고 X가 희박한 경우 메소드는 절편도 반환하며 솔버는 자동으로 'sag'로 변경됩니다. 이것은 인터셉트를 희소 데이터로 맞추기 위한 임시 수정일 뿐입니다. 밀도가 높은 데이터의 경우 sklearn.line_model을 사용합니다.check_inputbool, 기본값=True
728x90'<Python> > [Sklearn]' 카테고리의 다른 글
sklearn.manifold.LocallyLinearEmbedding 파라미터 (0) 2022.01.14 sklearn.manifold.Isomap 파라미터 (0) 2022.01.14 sklearn.linear_model.orthogonal_mp_gram 파라미터 (0) 2022.01.14 sklearn.linear_model.orthogonal_mp 파라미터 (0) 2022.01.14 sklearn.linear_model.lasso_path 파라미터 (0) 2022.01.13