-
### Applies To
- [ ] Notebooks (.ipynb files)
- [ ] Interactive Window and\/or Cell Scripts (.py files with \#%% markers)
### What happened?
When I initially installed visual studio code with anaco…
-
## 論文リンク
https://arxiv.org/abs/2103.00020
## 公開日(yyyy/mm/dd)
2021/01/05
## 概要
OpenAI が発表した DALL·E の中で reranking にも使われていた CLIP (Contrastive Language-Image Pre-training) の論文。
Web 上のテキストから特別な a…
-
# [Learning Transferable Visual Models From Natural Language Supervision](https://arxiv.org/abs/2103.00020)
## TL;DR
- 자연어와 이미지를 함께 pre-training한 뒤, downstream task에 zero-shot transfer할 수 있는 방법인 C…
-
### Authur 筆者
### Motivation なぜやろうとしたか
従来の画像分類タスクでは、ラベル付されたクラスのみを分類するための学習を行う。
そのため、未知のクラスへの分類を行うにはラベル付きデータセットを追加して学習しなければならない。
このために新しいデータセットを用意するのは効率的でない。そのため、文章とセットにした学習方法を提案する。
インターネット上の、…
-
## 一言でいうと
### 論文リンク
https://cdn.openai.com/papers/Learning_Transferable_Visual_Models_From_Natural_Language_Supervision.pdf
### 著者/所属機関
Alec Radford, Jong Wook Kim, Chris Hallacy, Aditya R…
-
## Ref
- https://qiita.com/sonoisa/items/00e8e2861147842f0237
- 日本語版事前学習モデル
- https://arxiv.org/abs/2103.00020
- https://deepsquare.jp/2021/01/clip-openai/
- https://www.ogis-ri.co.jp/otc/hir…
-
# Lesson 3.10 Lists | Nighthawk Pages
List Operations: aList[i] - This access your list at index i. An index is a numeric value that represents the position of an element within that data structure. …
-
# CLIP - 논문 리뷰 | solee
안녕하세요:lemon: 이번에 다룰 논문은 CLIP입니다! 논문 전체 이름은 Learning Transferable Visual Models From Natural Language Supervision target으로 GPT와 같이 자연어 분야에서 이뤄지던 대규모 데이터를 사용해 pre-training 후 다양한 …
-
If skills "VS Code" and "Visual Studio Code" are both used in the list of skills, we get nodes for each, even though VS Code is a [Wikipedia Redirect Page](https://en.wikipedia.org/wiki/Wikipedia:Redi…
-
[paper](https://arxiv.org/pdf/2204.14198.pdf)
## TL;DR
- **I read this because.. :** #116 읽고 나서 읽고 싶어짐. 예전에 성현님이 소개해주셨는데 디테일 모름. GPT 열풍으로 요즘 다시 많이 언급됨.
- **task :** Vision Language Model in g…