본문 바로가기

논문 리뷰4

[논문 리뷰] MetaICL: Learning to Learn In Context (NAACL 2022) arxiv : https://arxiv.org/abs/2110.15943 code : https://github.com/facebookresearch/MetaICL 1. Introduction 논문이 다루는 task : in-context learning Input : x_1,y_1, ... ,x_k Output : y_k 해당 task에서 기존 연구 한계점 기존의 연구들에 따르면 LM의 모델 사이즈가 크거나(68B 이상), task reformatting 혹은 task-specific templates가 있어야만 in-context learning이 가능하다. 그러나 본 연구에서 제시하는 MetaICL은 훨씬 더 작은 언어 모델들로, specific한 formula없이 in-context learnin.. 2024. 1. 20.
[Weekly paper review] 9월 4주차 논문 리뷰 (ControlNet, Visii, InstructPix2Pix, Prompt-to-Prompt Diffusion) 이번주에 읽으려고 계획했던 논문은 아래 7편의 논문이다. [읽음] Adding Conditional Control to Text-to-Image Diffusion Models (10 Feb 2023) - ICCV 2023 Visual Instruction Inversion: Image Editing via Visual Prompting (26 Jul 2023) - Neurips 2023 InstructPix2Pix: Learning to Follow Image Editing Instructions (17 Nov 2022) - CVPR 2023 Prompt-to-Prompt Image Editing with Cross Attention Control (2 Aug 2022) - ICLR 2023 (Oral).. 2023. 10. 1.
[Weekly paper review] 9월 3주차 논문 리뷰 (Planning with Diffusion for Flexible Behavior Synthesis, IS CONDITIONAL GENERATIVE MODELING ALL YOUNEED FOR DECISION-MAKING?) 이번주에 읽으려고 계획했던 논문은 아래 2편의 논문이다. [읽음] - Planning with Diffusion for Flexible Behavior Synthesis (ICML 2022) - IS CONDITIONAL GENERATIVE MODELING ALL YOUNEED FOR DECISION-MAKING? (ICLR 2023) 두 논문 다 강화학습(RL)에서 diffusion을 사용한 논문인데, 요즘 강화학습의 trend가 generative model(diffusion)을 활용해 decision-making을 하는 것이라고 하여 한번 읽어보았다. 강화학습에 대해 잘 알지는 못하지만, 환경도 구축해보며 이번 한 주 동안 열심히 공부해봤다. https://hyunsooworld.tistory.co.. 2023. 9. 25.
[Weekly paper review] 9월 2주차 논문 리뷰 (IP-Adapter, In-Context Learning Unlocked for Diffusion Models, DALL-E 2, DIFFUSION MODELS ALREADY HAVEA SEMANTIC LATENT SPACE) 이번주에 원래 읽으려고 계획했던 논문은 아래 5편의 논문이다. [읽음] - IP-Adapter: Text Compatible Image Prompt Adapter for Text-to-Image Diffusion Models - In-Context Learning Unlocked for Diffusion Models (Prompt Diffusion) - DIFFUSION MODELS ALREADY HAVE A SEMANTIC LATENT SPACE (asyrp) - Hierarchical Text-Conditional Image Generation with CLIP Latents (DALL-E 2) [못 읽음] - Photorealistic Text-to-Image Diffusion Models with.. 2023. 9. 17.