티스토리 뷰
CLIP을 보는데 있어서 attention(transformer)을 보고 무엇을 볼 지 gpt한테 물어봤더니 BERT를 보라고 해서 보기로 했다. Bidirectional Transformer for langue Understanging 이라고 하는 BERT는 attention 메커니즘을 이용하여 텍스트의 양방향 의미를 학습하는데 큰 역할을 한다고 한다.
https://arxiv.org/abs/1810.04805
https://drive.google.com/file/d/1jb-iPgpCg624f5KzIoY6280St_7K-9Bi/view?usp=share_link
근데 논문 보기 전에 위 자료가 너무 잘되어있어서 조금 더 봤다.
서브워드토크나이저라는 개념을 잘 익힌것 같다.
+ RNN에서의 기계번역 구조
---
이걸 봤는데 도움이 많이 된 듯
https://www.youtube.com/watch?v=SHWlHc9OuwU
'AI > Baseline' 카테고리의 다른 글
CSPDarknet53, Mish 활성화, Cross-stage partial connections (0) | 2024.03.04 |
---|---|
CLIP에 대해서 봤다. (0) | 2023.05.29 |
Attention 에 대한 논문을 봤다. (0) | 2023.05.19 |
순환 신경망 RNN(Recurrent Neural Network)에 대해서 봤다. LSTM 도 봤다. (0) | 2023.05.17 |
High-Dimensional Signature Compression for Large-Scale Image Classification (0) | 2023.04.28 |
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- yolov3 #tensorflow_convert
- 샴네트워크
- Deformable Convolutional Networks
- 첫논문
- alternatives.log
- /var/log/faillog
- /var/log/fontconfig.log
- Group Acitivty Recognition
- tf2to1
- /var/log/alternatives.log
- ctfloader
- torchmodel
- neural network applications
- 딥페이크탐지
- DetectoRS
- Deformable Part Model
- max-margin_loss
- /var/log/tallylog
- TransferLearning
- batch란
- 1-stage detection
- 도메인 어댑테이션
- Source-free unsupervised domain adaptation
- Arbitrary image stylization
- tf version porting
- 전이학습
- textual guidance
- tensorflow convert
- Chatgpt4
- StyleCLIP
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
글 보관함