본문 바로가기 메뉴 바로가기

꼭꼭 씹어먹고 싶은 만성소화불량

프로필사진
  • 글쓰기
  • 관리
  • 태그
  • 방명록
  • RSS

꼭꼭 씹어먹고 싶은 만성소화불량

검색하기 폼
  • 분류 전체보기 (108)
    • Warble (11)
    • AI (86)
      • 주워들은 것들 (28)
      • Baseline (17)
      • 강화학습 (0)
      • 자연어 처리 (2)
      • Github (3)
      • 딥러닝논문읽기모임 리뷰 (0)
    • Computer Architecture (5)
      • Error (5)
      • Baseline (0)
    • News (4)
  • 방명록

AI (86)
CSPDarknet53, Mish 활성화, Cross-stage partial connections

2024.03.04 - [AI] - YOLO v1~v8까지 정리 해보자 -Yolov4에서 도입했다고 하길래 나도 한 번 알아보자. CSPDarknet53 -CSPDarknet은 Cross Stage Densenet의 Densenet부분을 Darknet으로 바꾼 것이라고 한다. 그냥 Densenet과 CSP Densenet의 구조적 차이는 아래와 같다. X0전체를 처리하지 않았기 때문에 (처리하지 않은 x0가 그대로 적용되었음), Partial DenseNet이라고 한다. 출처 : https://yonghoney.github.io/YOLOv4/ CSP란 네트워크 일부 계측에서 feature map을 두 부분으로 나누고 한 부분을 직접 다음 계층으로 전달, 나머지는 여러 계층을 통과시킨 후 이전에 분리된 부..

AI/Baseline 2024. 3. 4. 13:18
YOLO v1~v8까지 정리 해보자

ChatGPT 4.0한테 물어봤는데 아직 검증은 안했다. -- 욜로는 You Only Look Once 라고 해서 Object Detction 방법론 중에 하나이다. 객체 검출 방식에는 박스영역를 다음 classification 을 진행하는 것(2-stage)과 이를 동시에 진행하는 1-stage 가 있다. (정확하게는 박스&박스내 객체 탐지 여부인 confidence와 class probability map을 병렬적으로 따로 진행함) YOLOv1 발표 연도: 2015 개발자: Joseph Redmon, Santosh Divvala, Ross Girshick, Ali Farhadi 소속 기관: University of Washington, Allen Institute for AI, Facebook AI ..

AI 2024. 3. 4. 09:41
소량의 그림을 학습시켜보자

https://blog.naver.com/PostView.naver?blogId=hannaurora&logNo=223089905318&parentCategoryNo=&categoryNo=50&viewDate=&isShowPopularPosts=true&from=search DreamBooth | AI에 내 그림체 학습 시키기, 인공지능으로 일러스트 그리기 [DreamBooth 결과물] ▶ [일러스트 작품] 위 이미지는 드림부스에 저의 그림체를 학습시켜서 나온 결과물... blog.naver.com 1. 마운트 에러 (경로마지막에 /여부) https://stackoverflow.com/questions/54230871/google-colab-valueerror-mountpoint-must-be-in-a-d..

AI/주워들은 것들 2023. 12. 5. 21:52
Virus Detection is Undecidable

https://enterprise.comodo.com/whitepaper/Impossibility_of_Virus_Detection_WP.pdf -이와 유사한 Halting 문제 이해를 통해 제목의 명제가 undecidable한 이유를 이해해 보자. 이해한대로 적자면 contradictHalt 를 !Halt 로 받아들임 - if halt(!halt()): loop else: stop(멈춰) 인데 두가지 가정을 해보자. (일단 halt()라는 함수는 프로그램이 멈추면 T 계속되면 F 인데 본래 Halt(P)지만 이 경우에는 P대신 자기자신을 넣었음 Halt(Halt()) halt 가 멈췄다. -> halt()함수에 의해 T !T= F 다. 아무튼 halt 내부에서 함수는 끝났기 때문에 true 로 감 ->..

AI/주워들은 것들 2023. 10. 3. 04:38
Attention 다시 보기

2023.05.19 - [AI/Baseline] - Attention 에 대한 논문을 봤다. Attention 에 대한 논문을 봤다. GRU에 대해서도 이해하고 싶었는데 그건 그냥 유튜브 영상을 보기로 했다. https://aistudy9314.tistory.com/63 https://www.youtube.com/watch?v=jbf_k7b16Vc https://arxiv.org/abs/1706.03762 Attention Is All You Need The dominant sequenc cho-akashic-records.tistory.com 오래간만에 다시 봤는데 하나도 기억이 안난다. 하하 오늘의 개념 정리 CTC(Connectionist Temporal Classification) https://..

AI/주워들은 것들 2023. 9. 20. 22:00
DragGAN을 봤다.

https://vcai.mpi-inf.mpg.de/projects/DragGAN/ https://arxiv.org/pdf/2208.12408.pdf 내가 하고 싶은 text driven image manipulation 은 너무 어려우니까 이걸로 우회할까 생각중이다. 갑자기 자신감이 뚝뚝 떨어졌다. 과제나 할까? 흑.. DragGAN - 기존 UsercontrollableLT의 문제는 2개가 있었다. - 1) 점 하나이상은 제어가 어렵다? ( the contorl of more than one point, which their approach does not handle well - 2) 제어하는 포인트에 정확하게 접근하지 못한다. 본 논문은 이걸 해결했다고 한다. -dragGAN은 RAFT같은 추가네트..

AI 2023. 6. 7. 00:13
CLIP에 대해서 봤다.

보기는 했는데.. 에.. 본 것 맞아? https://arxiv.org/abs/2103.00020 https://drive.google.com/file/d/1lBfCllCl9WVioYJmlzYVGq2iCUwdDXT1/view?usp=sharing https://youtu.be/7UMmKm0hzho https://youtu.be/vCsrk5teBs8 https://youtu.be/WaPZLMDrguM https://youtu.be/zPWi6dSHe0g https://youtu.be/kRmv8_i2A_4

AI/Baseline 2023. 5. 29. 16:56
BERT에 대해서 봤다.

https://wikidocs.net/115055 CLIP을 보는데 있어서 attention(transformer)을 보고 무엇을 볼 지 gpt한테 물어봤더니 BERT를 보라고 해서 보기로 했다. Bidirectional Transformer for langue Understanging 이라고 하는 BERT는 attention 메커니즘을 이용하여 텍스트의 양방향 의미를 학습하는데 큰 역할을 한다고 한다. https://arxiv.org/abs/1810.04805 https://drive.google.com/file/d/1jb-iPgpCg624f5KzIoY6280St_7K-9Bi/view?usp=share_link 근데 논문 보기 전에 위 자료가 너무 잘되어있어서 조금 더 봤다. https://wikido..

AI/Baseline 2023. 5. 19. 15:07
Attention 에 대한 논문을 봤다.

GRU에 대해서도 이해하고 싶었는데 그건 그냥 유튜브 영상을 보기로 했다. https://aistudy9314.tistory.com/63 https://www.youtube.com/watch?v=jbf_k7b16Vc https://arxiv.org/abs/1706.03762 Attention Is All You Need The dominant sequence transduction models are based on complex recurrent or convolutional neural networks in an encoder-decoder configuration. The best performing models also connect the encoder and decoder through an ..

AI/Baseline 2023. 5. 19. 09:02
순환 신경망 RNN(Recurrent Neural Network)에 대해서 봤다. LSTM 도 봤다.

https://wikidocs.net/22886 이제 바닥을 좀 쌓아보려고 한다. RNN 부터 LSTM attention CLIP을 보고 싶다. RNN에서는 hidden layer 에서 activation function 통해 결과를 내보내는 역할을 하는 노드를 cell이라고 표현한다고 한다. 이 셀은 이전의 값을 기억하려고 하는 일종의 메모리 역할을 수행하므로 RNN(메모리) cell이라고 함. 03-05 언어모델의 평가방법 Perplexity PPL : 이 수치는 낮을수록 언어모델의 성능이 좋은 것이다. PPL은 선택할 수 있는 가능한 경우의 수를 의미하는 분기계수 branching factor라고 해서 PPL이 test data를 통해 10으로 측정되었다면 해당 언어 모델은 테스트 데이터에 대해서 ..

AI/Baseline 2023. 5. 17. 04:43
이전 1 ··· 3 4 5 6 7 8 9 다음
이전 다음
공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
TAG
  • alternatives.log
  • tensorflow convert
  • 첫논문
  • torchmodel
  • /var/log/tallylog
  • neural network applications
  • /var/log/faillog
  • Deformable Convolutional Networks
  • yolov3 #tensorflow_convert
  • StyleCLIP
  • DetectoRS
  • Arbitrary image stylization
  • batch란
  • max-margin_loss
  • 1-stage detection
  • 도메인 어댑테이션
  • Deformable Part Model
  • Group Acitivty Recognition
  • textual guidance
  • tf version porting
  • Source-free unsupervised domain adaptation
  • /var/log/fontconfig.log
  • 샴네트워크
  • ctfloader
  • Chatgpt4
  • tf2to1
  • 딥페이크탐지
  • TransferLearning
  • /var/log/alternatives.log
  • 전이학습
more
«   2025/07   »
일 월 화 수 목 금 토
1 2 3 4 5
6 7 8 9 10 11 12
13 14 15 16 17 18 19
20 21 22 23 24 25 26
27 28 29 30 31
글 보관함

Blog is powered by Tistory / Designed by Tistory

티스토리툴바