논문 썸네일형 리스트형 U-Net (Convolutional Networks for Biomedical Image Segmentation) 리뷰 Abstract(요약)딥러닝 네트워크를 성공적으로 훈련하기 위해서 training set 필요.training set 샘플의 효과적 학습을 위한 data augmentation(데이터 증강) 제시모델링은 특징 추출을 위한 "contracting path" 와 정확한 localization을 위한 "expanding path"로 이루어짐contracting path-expanding path의 네트워크는 적은 수의 이미지로도 end-to-end학습 가능, 기존 convolutional network보다 성능 더 효과적2015 ISBI cell tracking대회에서 U-Net 성능 입증1 Introductionconvolutional network task : single class label 도출Biom.. 더보기 ELMo (Deep contextualized word representations) 논문 리뷰 Abstract(초록)deep contextualized word representations 학습, 적용문맥에 따른 단어 다른 임베딩 학습 제시동의어다의어학습방법으로 bidirectional을 LSTM방식으로 활용한 biLM 제시unlabeling된 text corpus pretrain, 작업에 맞게 labeling된 text corpus를 downstream model에 학습하는 방법인 semi-supervision을 NLP에 사용question answering, textual entailment, sentiment analysis등 6개의 task에서 state of the art의 성능 증명1 Introduction기존 NLP의 Pre-trained model이 word representatio.. 더보기 Sequence to sequence learning with neural networks 논문 리뷰 1. Introduction (소개)기계 번역과 같은 자연어 처리 작업에서는 입력 시퀀스를 출력 시퀀스로 변환하는 문제가 중요한데, 기존의 모델들은 복잡한 구조와 많은 사전 지식을 요구합니다. "Sequence to Sequence Learning with Neural Networks" 논문에서는 이를 해결하기 위해 인코더-디코더 구조를 사용하는 Seq2Seq 모델을 제안합니다. 이 모델은 입력 시퀀스를 고정된 크기의 벡터로 인코딩한 다음, 이를 디코더가 사용하여 출력 시퀀스를 생성합니다. 이는 통계적 기계 번역 시스템보다 더 간단하고 효과적인 접근법입니다.2. Model Architecture (모델 구조)Seq2Seq 모델은 두 부분으로 구성됩니다:인코더 (Encoder): 입력 시퀀스를 고정된 크기.. 더보기 Neural Machine Translation of Rare Words with Subword Units(BPE) 리뷰 Abstract(초록)과거 - backing off(you go back to a n-1 gram level to calculate the probabilities when you encounter a word with prob=0 : 자연어처리에서 특정 상황을 처리할 수 없을 때 사전조회 같은 일반적인 방법으로 돌아가는 방식) 활용 -> 문제점 제시open-vocabulary문제를 해결하는 신경망 기계번역 모델 소개word segmentation 기술(서브워드 분리기술) 제시 - simple character n-gram model, BPE(byte pair encoding)1. Introductionrare words : 자주 사용되지 않아서 어휘 목록이나 사전에 포함되지 않는 단어들productiv.. 더보기 이전 1 다음