본문 바로가기

Paper Review/Language Language Model4

[논문 리뷰] Understanding In-Context Learning in Transformers and LLMs by Learning to Learn Discrete Functions (ICLR 2024 Oral) arxiv : https://arxiv.org/pdf/2310.03016.pdf code : X In-context learning에 대해 나온 논문들 중 엄청 최근에 나온 논문이다. 얼마 전 발표된 ICLR 2024에서 oral paper로 선정되었고, 매주 목요일마다 진행 중인 LLM 스터디에서 내가 발표를 맡기로 해서(고르고 약간 후회했다 ..), 매우 자세하게 리뷰할 예정이다. 아마 이 논문을 완벽하게 이해하면, top-down으로 in-context learning을 공부하는 좋은 스타트가 되지 않을까 생각한다. Before reading 논문 제목을 보고 해당 모델이 어떤 방법론을 바탕으로 할지 가설을 세워봅시다. -> Discrete Function을 학습해 Transformer 및 LLM의.. 2024. 2. 1.
[논문 리뷰] MetaICL: Learning to Learn In Context (NAACL 2022) arxiv : https://arxiv.org/abs/2110.15943 code : https://github.com/facebookresearch/MetaICL 1. Introduction 논문이 다루는 task : in-context learning Input : x_1,y_1, ... ,x_k Output : y_k 해당 task에서 기존 연구 한계점 기존의 연구들에 따르면 LM의 모델 사이즈가 크거나(68B 이상), task reformatting 혹은 task-specific templates가 있어야만 in-context learning이 가능하다. 그러나 본 연구에서 제시하는 MetaICL은 훨씬 더 작은 언어 모델들로, specific한 formula없이 in-context learnin.. 2024. 1. 20.
[최대한 자세하게 설명한 논문리뷰] BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding (1) - References https://arxiv.org/abs/1810.04805?source=post_page (논문 원본) 해당 포스팅은 BERT 논문을 자세히 읽으며 공부한 내용들을 논문의 목차 순서대로 정리한 것이다. 0. Abstract BERT가 unlabeled text로부터 deep bidirectional representations pre-train이 가능하다는 것을 강조하며 논문이 시작된다. 즉, BERT는 unlabeled data로 부터 pre-train을 진행 한 후, 이를 특정 downstream task(with labeled data)에 fine-tuning(transfer learning)을 하는 모델이다. 논문에서 deep bidirectional이란 단어가 많이 등장하.. 2022. 8. 15.
[최대한 쉽게 설명한 논문리뷰] Attention Is All You Need(Transformer 논문) - Reference The Illustrated Transformer The Positional Encoding 를 어떻게 하는 것인가? 딥 러닝을 이용한 자연어 처리 입문 트랜스포머 (어텐션 이즈 올 유 니드) [딥러닝 기계 번역] Transformer: Attention Is All You Need (꼼꼼한 딥러닝 논문 리뷰와 코드 실습) 0. 글 쓰기에 앞서 BERT는 Transformer의 인코더(Encoder) 부분을, GPT는 Transformer의 디코더(Decoder) 부분을 활용하였다. 구글에서 발표한 Transformer는 최근까지 가장 뛰어난 자연어 처리 모델이라 평가 받는 BERT, GPT 등에서도 활용되고 있다. "Attention is all you need" (너가 필요한것은.. 2022. 3. 23.