[논문리뷰] R-Drop: Regularized Dropout for Neural Network
in Booststudy on 논문리뷰
R-Drop: Regularized Dropout for Neural Network를 읽고 이에 대하여 논의한다.
in Booststudy on 논문리뷰
R-Drop: Regularized Dropout for Neural Network를 읽고 이에 대하여 논의한다.
in Booststudy on 논문리뷰
Self-Explaining Structures Improve NLP Models를 읽고 이에 대하여 논의한다.
in Booststudy on 논문리뷰
An Improved Baseline for Sentence-level Relation Extraction를 읽고 이에 대하여 논의한다.
in Booststudy on 논문리뷰
RBERT: Enriching Pre-Training Language Model with Entity Information for Relation Classification를 읽고 이에 대하여 논의한다.
in Booststudy on 논문리뷰
VQGAN: Taming Transformers for High-Resolution Image Synthesis를 읽고 이에 대하여 논의한다.
in Booststudy on 논문리뷰
Dense Passage Retrieval for Open-Domain Question Answering을 읽고 이에 대하여 논의한다.
in Booststudy on 논문리뷰
Neural Machine Translation By Jointly Learning to Align and Translate 에 대하여 설명한다.
in Booststudy on 논문리뷰
Attention Is All You Need (Transformer)에 대하여 설명한다.