본문 바로가기

분류 전체보기

(108)
이홍락교수 2016 인터뷰 so I have been doing deep learning maybe over about 10 years I mean I did PhD at Stanford under professor andry so I was pretty much the first student in his group starting doing deep learning for PhD and also it was the beginning period where other labs had some so like very emerging research on deep learning so so since then I got PhD in 2010 and then moved to Michigan as a seasoned professor ..
[LG]Vision Lab - Seunghwan Kim (김승환) few-show learning 레이블링에 들어가는 비용 최소화 현장에서의 신뢰도 확보 모델 결과물에 대한 신뢰도를 확보하고 모델 적용후 비전기술 기계노화로 인한 성능저하 등 페인 포인트가 많이 좋아한다. full auto mation은 목표로 디지털 휴면 새로운 디지털 경험 generative model few shot learning인간 수준의 자연스러운 아바타. visionlabal은 lg 그룹의 비즈니스에 직접적인 그룹.
[ LG] AI연구원 온라인 출범식 배경훈 LG AI연구원장 고객을 위한 가치창조 고객이 실질적으로 필요로하는 가치 고객의 삶을 질적으로 변환하는 ai연구를 통해 디지털 트랜스포메이션을 완성한다. ai를 가장 잘 활용하는 방법들을 연구하겠습니다. 최우선 과제는 그룹내 계열사에 산재한 난제들을 ai연구를 통해 해결하는것 우리의 생활과 산업 전만에 걸쳐 방대하고 유의미한 데이터 확보 ai기술 자체보다는 활용하는 수준이였다. 배터리의 수명 용량 예측 모델 검수과정 필요했던 충방전 시간 단축. 신약후보 발굴.. 성공.. 8개월만에.. 대박. 생성모델 설명가능한 ai개발 고객센터 챗봇 기계자동독해 MRC기술. 상담사가 쉽고 빠르게 원하는 정보를 찾아 전달 할 수 있었다. 특허 전문 문헌 일일히 읽어보았는데 최신 자연어처리 기술로 해결해 나가고 있다. ai 인재 확보와 육성..
[UOSEST]lyle ppar-gamma model, fingerfrint This is a deep learning model that was developed to predict PPAR-gamma ligands (agonists and antagonists). Here are some specs: Accuracy (5-fold cross-validation): 99.74% True Positive Rate: 99% --> ligand를 positive라고 본다. False Positive Rate: 0.5% Probably that a PPAR-gamma ligand will be predicted to be a ligand: P(ligand | predict: ligand): 89% Probability that a non-ligand will be predicted t..
[I2S]분자구조이미지를 smiles로 바꿔서 어디에 이용하려고 하는것인가? 신소재 발굴 등 개발 활동이 많은 LG 계열사의 활용도가 높을 것으로 예상합니다. LG AI Hub 및 LG 그룹 내 공유. 기대 : - 화학 관련 특허 문헌에 포함 된 복잡하고 많은 화학 구조 이미지를 인식하여 검색 효율을 높일 수있는 기술로 활용 가능합니다. Unet이란? : The automatic recognition of chemical structure diagrams from the literature is an indispensable component of workflows to re-discover information about chemicals and to make it available in open-access databases. 문헌으로부터 화학구조도의 자동인식은 화학물질에 대..
[I2S]B3을 이용한 결과. 300*300사이즈를 그대로 이용하기위해 effb3를 이용했는데 gradient exploding이 일어났다. 왜인가? 따시 한번 lr=0.0001로 놓고 학습하였더니 굉장히 안정적으로 학습이 되고 있다. 계속 학습을 시켜보도록 하자 val_loss는 0.0150 0.0028이하가 되어야 B0보다 좋다고 할수 있는데 그렇지 않다. 이유가 무엇일까? 1. 너무 많은 파라미터. b3 : 10,696,232, feature map의 크기가 너무 큼 (None, 10,10,1536) b0 : 4,049,564(None,7,7,1280) 이를 해결하기 위해선 decoder를 더 깊게 만들어야할듯. 이정도 파라미터정도는 되어야 ㅎ --> 메모리가 부족해서 batch_size를 32*8로 줄여야한다. b3을 이용하기..
[I2S] effnet을 사용해서 fine-tuning을 해보자. 그렇다면 1000만개 학습한 것을 미세조정 해보는것이 어떠한가? Eff1의 구조를 한번 알아보자. https://hoya012.github.io/blog/EfficientNet-review/ EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks 리뷰 ICML 2019에 제출된 “EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks” 논문에 대한 리뷰를 수행하였습니다. hoya012.github.io https://keras.io/examples/vision/image_classification_efficientnet_fine_tuning/ Keras d..
[I2S]effb1 model.summary() block7a_expand_conv (Conv2D) (None, 7, 7, 1152) 221184 block6e_add[0][0] __________________________________________________________________________________________________ block7a_expand_bn (BatchNormali (None, 7, 7, 1152) 4608 block7a_expand_conv[0][0] __________________________________________________________________________________________________ block7a_expand_activation (Acti (None, 7, 7, ..
[I2S]effb1 layers , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ]
[I2S] renet을 이용한 transferlearning 랩요정들은 인코더에서 사용한 pre-trained모델의 전체 레이어에서 앞단의 5개 레이어를 제외한 네트워크 파라미터를 업데이트 하였다. "Fine-tuning은 모델의 전체 레이어에서 앞단의 5개의 레이어를 제외한 네트워크의 파라미터를 업데이트하여 이루어졌습니다." Fine-tuning 이란? - 기존에 학습되어져 있는 모델을 기반으로 아키텍쳐를 새로운 목적(나의 이미지 데이터에 맞게)변형하고 이미 학습된 모델 Weights로 부터 학습을 업데이트하는 방법을 말한다. 출처: https://eehoeskrap.tistory.com/186 [Enough is not enough] # EFNS = [efn.EfficientNetB0, efn.EfficientNetB1, efn.EfficientNetB2, e..