ili0820 / Boostcamp-AI-Casual-Talk

얕고 넓은 AI 잡담
6 stars 1 forks source link

[20220323] Boostcamp-AI-Casual-Talk - 1회차 #2

Closed ili0820 closed 2 years ago

ili0820 commented 2 years ago

News

image

Arxiv

image

hawe66 commented 2 years ago

Aesthetic preference for art can be predicted from a mixture of low- and high-level visual features

Figure1

Figure5

Slides

News

naem1023 commented 2 years ago

OpenAI, Davinci model

https://andrewmayneblog.wordpress.com/2022/03/17/building-games-and-apps-entirely-through-natural-language-using-openais-davinci-code-model/

https://openai.com/blog/gpt-3-edit-insert/

Overview

이전에 OpenAI에서 Codex를 통해 prompt로 코딩하는 모델을 선보였다. 이번에 새로운 GPT-3모델과 Codex가 나오면서 위 2개 글과 같은 결과를 얻을 수 있게 됐다.

New GPT-3 Capabilities: Edit & Insert

Edit '아래 코드의 time complexity'를 개선시켜줘', 'javascript로 변환해줘'와 같이 prompt에 변화를 가할 수 있게 됐다.

Insert Codex의 경우 앞, 뒤 prompt 맥락에 따라 적절한 코드가 지속적으로 중간 지점에 insert된다. GPT-3로 Section별 글쓰기를 할 경우, Section2의 내용에 따라 Section1에 새로운 내용이 insert 된다.

P-tuning

https://arxiv.org/pdf/2103.10385.pdf

Overview

GPT 등에서 few-shot learning을 할 때 사용할 prompt를 hand-craft로 만들지말고, embedding으로 만들자.

Method

e.g., NLU task에서 사용할 prompt를 embedding해보자. The capital of Britain is [MASK]. 사람이 직접 GPT에 넣을 prompt를 만든다면 아래와 같이 만들 수 있을 것이다. image

이러한 작업을 사람이 실험을 통해 시행하지말고, PLM을 fine-tuning하지도 않으면서 prompt만 따로 embedding해보자. image

이렇게 만들어진 prompt를 PLM에 투입해 loss를 구하고 back propagation을 통해 prompt encoder를 업데이트한다.

Result

image

일반적인 prompt 생성 방법들보다 더 좋은 결과가 나왔다고 한다.

ijkimmy commented 2 years ago
sunbi-s commented 2 years ago

Web 3.0