본문 바로가기

전체 글

(108)
[I2S]effb1 layers , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ]
[I2S] renet을 이용한 transferlearning 랩요정들은 인코더에서 사용한 pre-trained모델의 전체 레이어에서 앞단의 5개 레이어를 제외한 네트워크 파라미터를 업데이트 하였다. "Fine-tuning은 모델의 전체 레이어에서 앞단의 5개의 레이어를 제외한 네트워크의 파라미터를 업데이트하여 이루어졌습니다." Fine-tuning 이란? - 기존에 학습되어져 있는 모델을 기반으로 아키텍쳐를 새로운 목적(나의 이미지 데이터에 맞게)변형하고 이미 학습된 모델 Weights로 부터 학습을 업데이트하는 방법을 말한다. 출처: https://eehoeskrap.tistory.com/186 [Enough is not enough] # EFNS = [efn.EfficientNetB0, efn.EfficientNetB1, efn.EfficientNetB2, e..
[I2S] 9300만개 학습, char 개수 세기 CID-SMILES에는 총 111325461개(1억 1천 1백만개)가 존재한다. 그중 smiles길이가 70이하이고 빈도가 낮은 char의 하위 절반에 속한 문자들을 포함하지 않는 smiles만 택했더니 약 9300만개가 나왔다. 총 1억 1천만 개 중에 9300만(93248512)개면.. 상당수. 약 0.84 정도를 포함하는 수치 111325461개 smiles를 집합에는 총 68개 의 문자가 있다. ['L', ')', 's', 'c', 'd', '4', '=', '5', '0', 'm', '(', 'G', 'F', 'r', 'R', 'b', 'y', '1', 'f', 'i', 'u', 'M', 't', '8', '9', 'n', 'U', 'C', 'N', '/', '6', 'a', 'k', 'T', ..