보기는 했는데.. 에.. 본 것 맞아? https://arxiv.org/abs/2103.00020 https://drive.google.com/file/d/1lBfCllCl9WVioYJmlzYVGq2iCUwdDXT1/view?usp=sharing https://youtu.be/7UMmKm0hzho https://youtu.be/vCsrk5teBs8 https://youtu.be/WaPZLMDrguM https://youtu.be/zPWi6dSHe0g https://youtu.be/kRmv8_i2A_4

https://wikidocs.net/115055 CLIP을 보는데 있어서 attention(transformer)을 보고 무엇을 볼 지 gpt한테 물어봤더니 BERT를 보라고 해서 보기로 했다. Bidirectional Transformer for langue Understanging 이라고 하는 BERT는 attention 메커니즘을 이용하여 텍스트의 양방향 의미를 학습하는데 큰 역할을 한다고 한다. https://arxiv.org/abs/1810.04805 https://drive.google.com/file/d/1jb-iPgpCg624f5KzIoY6280St_7K-9Bi/view?usp=share_link 근데 논문 보기 전에 위 자료가 너무 잘되어있어서 조금 더 봤다. https://wikido..
GRU에 대해서도 이해하고 싶었는데 그건 그냥 유튜브 영상을 보기로 했다. https://aistudy9314.tistory.com/63 https://www.youtube.com/watch?v=jbf_k7b16Vc https://arxiv.org/abs/1706.03762 Attention Is All You Need The dominant sequence transduction models are based on complex recurrent or convolutional neural networks in an encoder-decoder configuration. The best performing models also connect the encoder and decoder through an ..
- Total
- Today
- Yesterday
- 전이학습
- max-margin_loss
- alternatives.log
- StyleCLIP
- 첫논문
- Group Acitivty Recognition
- neural network applications
- /var/log/faillog
- Deformable Convolutional Networks
- 딥페이크탐지
- TransferLearning
- batch란
- textual guidance
- Source-free unsupervised domain adaptation
- 1-stage detection
- DetectoRS
- tensorflow convert
- tf version porting
- /var/log/alternatives.log
- torchmodel
- tf2to1
- /var/log/fontconfig.log
- Arbitrary image stylization
- 도메인 어댑테이션
- 샴네트워크
- ctfloader
- yolov3 #tensorflow_convert
- Deformable Part Model
- Chatgpt4
- /var/log/tallylog
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 |