전체 글
-
6/17 배운거카테고리 없음 2022. 6. 17. 21:44
from itertools import chain letters = ['a', 'b', 'c'] booleans = [1, 0, 1] decimals = [0.1, 0.7, 0.4] print list(itertools.chain(letters, booleans, decimals)) # ['a', 'b', 'c', 1, 0, 1, 0.1, 0.7, 0.4] train = pd.read_csv(path_train) train = train.sample(frac=1) # 랜덤추출 torch.ones(10) # tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1.]) torch.zeros(10) # tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0..
-
기본 모델<Python>/[Pytorch] 2022. 6. 17. 17:34
nn.Sequential(nn.Linear(2000, 4000), GELU(), nn.BatchNorm1d(4000)) nn.Sequential nn.ModuleList nn.Linear(입력층 차원, 출력층 차원) nn.BatchNorm1d : 정규화 기능 nn.Dropout(p) : 정규화 기능 + 신경망 과적합 방지 nn.Module nn.Parameter 잔차연결(skip connection) : 이전층의 정보를 이용하기 위해 이전층의 정보를 연결 계층정규화 활성화함수(GELU())-> 배치정규화(nn.BatchNorm1d)->계층정규화(클래스 LayerNorm ->> (x-평균)/표준편차) ->드롭아웃()-> 손실함수 -> 옵티마이저/옵티마이저 학습률 실제값-예측값을 바탕으로 퍼셉트론계수 최적화..
-
-
-
-