
2024.03.04 - [AI] - YOLO v1~v8까지 정리 해보자 -Yolov4에서 도입했다고 하길래 나도 한 번 알아보자. CSPDarknet53 -CSPDarknet은 Cross Stage Densenet의 Densenet부분을 Darknet으로 바꾼 것이라고 한다. 그냥 Densenet과 CSP Densenet의 구조적 차이는 아래와 같다. X0전체를 처리하지 않았기 때문에 (처리하지 않은 x0가 그대로 적용되었음), Partial DenseNet이라고 한다. 출처 : https://yonghoney.github.io/YOLOv4/ CSP란 네트워크 일부 계측에서 feature map을 두 부분으로 나누고 한 부분을 직접 다음 계층으로 전달, 나머지는 여러 계층을 통과시킨 후 이전에 분리된 부..

ChatGPT 4.0한테 물어봤는데 아직 검증은 안했다. -- 욜로는 You Only Look Once 라고 해서 Object Detction 방법론 중에 하나이다. 객체 검출 방식에는 박스영역를 다음 classification 을 진행하는 것(2-stage)과 이를 동시에 진행하는 1-stage 가 있다. (정확하게는 박스&박스내 객체 탐지 여부인 confidence와 class probability map을 병렬적으로 따로 진행함) YOLOv1 발표 연도: 2015 개발자: Joseph Redmon, Santosh Divvala, Ross Girshick, Ali Farhadi 소속 기관: University of Washington, Allen Institute for AI, Facebook AI ..

https://blog.naver.com/PostView.naver?blogId=hannaurora&logNo=223089905318&parentCategoryNo=&categoryNo=50&viewDate=&isShowPopularPosts=true&from=search DreamBooth | AI에 내 그림체 학습 시키기, 인공지능으로 일러스트 그리기 [DreamBooth 결과물] ▶ [일러스트 작품] 위 이미지는 드림부스에 저의 그림체를 학습시켜서 나온 결과물... blog.naver.com 1. 마운트 에러 (경로마지막에 /여부) https://stackoverflow.com/questions/54230871/google-colab-valueerror-mountpoint-must-be-in-a-d..

https://enterprise.comodo.com/whitepaper/Impossibility_of_Virus_Detection_WP.pdf -이와 유사한 Halting 문제 이해를 통해 제목의 명제가 undecidable한 이유를 이해해 보자. 이해한대로 적자면 contradictHalt 를 !Halt 로 받아들임 - if halt(!halt()): loop else: stop(멈춰) 인데 두가지 가정을 해보자. (일단 halt()라는 함수는 프로그램이 멈추면 T 계속되면 F 인데 본래 Halt(P)지만 이 경우에는 P대신 자기자신을 넣었음 Halt(Halt()) halt 가 멈췄다. -> halt()함수에 의해 T !T= F 다. 아무튼 halt 내부에서 함수는 끝났기 때문에 true 로 감 ->..

2023.05.19 - [AI/Baseline] - Attention 에 대한 논문을 봤다. Attention 에 대한 논문을 봤다. GRU에 대해서도 이해하고 싶었는데 그건 그냥 유튜브 영상을 보기로 했다. https://aistudy9314.tistory.com/63 https://www.youtube.com/watch?v=jbf_k7b16Vc https://arxiv.org/abs/1706.03762 Attention Is All You Need The dominant sequenc cho-akashic-records.tistory.com 오래간만에 다시 봤는데 하나도 기억이 안난다. 하하 오늘의 개념 정리 CTC(Connectionist Temporal Classification) https://..

https://vcai.mpi-inf.mpg.de/projects/DragGAN/ https://arxiv.org/pdf/2208.12408.pdf 내가 하고 싶은 text driven image manipulation 은 너무 어려우니까 이걸로 우회할까 생각중이다. 갑자기 자신감이 뚝뚝 떨어졌다. 과제나 할까? 흑.. DragGAN - 기존 UsercontrollableLT의 문제는 2개가 있었다. - 1) 점 하나이상은 제어가 어렵다? ( the contorl of more than one point, which their approach does not handle well - 2) 제어하는 포인트에 정확하게 접근하지 못한다. 본 논문은 이걸 해결했다고 한다. -dragGAN은 RAFT같은 추가네트..
보기는 했는데.. 에.. 본 것 맞아? https://arxiv.org/abs/2103.00020 https://drive.google.com/file/d/1lBfCllCl9WVioYJmlzYVGq2iCUwdDXT1/view?usp=sharing https://youtu.be/7UMmKm0hzho https://youtu.be/vCsrk5teBs8 https://youtu.be/WaPZLMDrguM https://youtu.be/zPWi6dSHe0g https://youtu.be/kRmv8_i2A_4

https://wikidocs.net/115055 CLIP을 보는데 있어서 attention(transformer)을 보고 무엇을 볼 지 gpt한테 물어봤더니 BERT를 보라고 해서 보기로 했다. Bidirectional Transformer for langue Understanging 이라고 하는 BERT는 attention 메커니즘을 이용하여 텍스트의 양방향 의미를 학습하는데 큰 역할을 한다고 한다. https://arxiv.org/abs/1810.04805 https://drive.google.com/file/d/1jb-iPgpCg624f5KzIoY6280St_7K-9Bi/view?usp=share_link 근데 논문 보기 전에 위 자료가 너무 잘되어있어서 조금 더 봤다. https://wikido..
GRU에 대해서도 이해하고 싶었는데 그건 그냥 유튜브 영상을 보기로 했다. https://aistudy9314.tistory.com/63 https://www.youtube.com/watch?v=jbf_k7b16Vc https://arxiv.org/abs/1706.03762 Attention Is All You Need The dominant sequence transduction models are based on complex recurrent or convolutional neural networks in an encoder-decoder configuration. The best performing models also connect the encoder and decoder through an ..
https://wikidocs.net/22886 이제 바닥을 좀 쌓아보려고 한다. RNN 부터 LSTM attention CLIP을 보고 싶다. RNN에서는 hidden layer 에서 activation function 통해 결과를 내보내는 역할을 하는 노드를 cell이라고 표현한다고 한다. 이 셀은 이전의 값을 기억하려고 하는 일종의 메모리 역할을 수행하므로 RNN(메모리) cell이라고 함. 03-05 언어모델의 평가방법 Perplexity PPL : 이 수치는 낮을수록 언어모델의 성능이 좋은 것이다. PPL은 선택할 수 있는 가능한 경우의 수를 의미하는 분기계수 branching factor라고 해서 PPL이 test data를 통해 10으로 측정되었다면 해당 언어 모델은 테스트 데이터에 대해서 ..
- Total
- Today
- Yesterday
- alternatives.log
- tensorflow convert
- 첫논문
- torchmodel
- /var/log/tallylog
- neural network applications
- /var/log/faillog
- Deformable Convolutional Networks
- yolov3 #tensorflow_convert
- StyleCLIP
- DetectoRS
- Arbitrary image stylization
- batch란
- max-margin_loss
- 1-stage detection
- 도메인 어댑테이션
- Deformable Part Model
- Group Acitivty Recognition
- textual guidance
- tf version porting
- Source-free unsupervised domain adaptation
- /var/log/fontconfig.log
- 샴네트워크
- ctfloader
- Chatgpt4
- tf2to1
- 딥페이크탐지
- TransferLearning
- /var/log/alternatives.log
- 전이학습
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |