| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | ||||
| 4 | 5 | 6 | 7 | 8 | 9 | 10 |
| 11 | 12 | 13 | 14 | 15 | 16 | 17 |
| 18 | 19 | 20 | 21 | 22 | 23 | 24 |
| 25 | 26 | 27 | 28 | 29 | 30 | 31 |
- clone
- FunctionGemma
- chatGPT
- llm
- Ai
- 리뷰
- Gemma
- 영화
- 엔지니어
- Fultter
- 논문리뷰
- image
- GenAI
- docker
- DART
- Kubernetes
- ultralytics
- 야호
- lightly
- Type
- 클론코딩
- coding
- Python
- Flutter
- 파이썬
- 인공지능
- container
- YOLO
- 딥러닝
- 구글
- Today
- Total
목록분류 전체보기 (39)
딥러닝 공부방입니다. 근데 이제 야매를 곁들인.
독거총각이라 밤에 혼자 혼술하면서 영화를 볼 때가 많습니다. 정말 재밌게 본 영화들이 많은데 지나고 나면 항상 까먹어서 아쉬워요... 그래서 기록을 하려고 합니다. 스포는 안할게요. 제가 느낀 감정만 써보겠습니다. 리뷰대상 영화는 제 기준 5점 만점에 3점 이상만 할게요. 감사합니다.
Abstract. 블로그를 시작할 때는 매주에 한 편씩 논문 리뷰를 올릴 생각이었는데, 쉽지가 않네요. 이 글에서는 저에대한 간단한 소개와 앞으로 어떻게 살아갈지를 다루고 있습니다. 1. Introduction 어렸을 때 부터 컴퓨터를 좋아했던 기억이 있습니다. 사실 게임을 좋아했다고 하는 것이 맞을 것 같습니다. 하지만, 부모님이 게임을 싫어하셨고 자연스레 제재가 가해졌습니다. 그렇지만 우리는 언제나 그랬듯이 정답을 찾는다고 했던가요, 별건 아니었지만 몰래 게임을 하기 위한 잡 기술들을 배워가며 열심히 살았습니다. 더블 모니터(Figure 1)가 저의 초등학생 시절 메이플스토리를 책임져준 친구였습니다. 이런 꼼수를 부리다가 결국 들켜서 부모님은 X-Keeper(Figure 2) 라는 유료서비스를 가입하..
오늘은 Semi-Supervised Object Detection을 위한 strong augmentation을 제안한 논문을 리뷰하고자 합니다. [2111.10958] MUM : Mix Image Tiles and UnMix Feature Tiles for Semi-Supervised Object Detection (arxiv.org) MUM : Mix Image Tiles and UnMix Feature Tiles for Semi-Supervised Object Detection Many recent semi-supervised learning (SSL) studies build teacher-student architecture and train the student network by the gen..
이전 논문리뷰를 기반으로 설명해야해서 안 읽으신 분들은 한번 가볍게 보고 오시는 것을 추천합니다. https://zeroact.tistory.com/entry/%EB%85%BC%EB%AC%B8%EB%A6%AC%EB%B7%B0-Photo-Realistic-Single-Image-Super-Resolution-Using-a-Generative-Adversarial-Network [논문리뷰] Photo-Realistic Single Image Super-Resolution Using a Generative Adversarial Network 요즘 Super Resolution을 공부하기 시작해서 앞으로 SR 관련 논문 리뷰를 하게 될 것 같습니다. 이 논문 이전에 base가 되는 논문들이 있지만, 내용이 딱히..
요즘 Super Resolution을 공부하기 시작해서 앞으로 SR 관련 논문 리뷰를 하게 될 것 같습니다. 이 논문 이전에 base가 되는 논문들이 있지만, 내용이 딱히 어렵지 않아서 그냥 필요할 때 키워드만 찾아보면 될 것 같아서 건너뛰고 GAN부터 시작하겠습니다. 최근에 좀 바빠져서 이제 각 파트별로 자세히는 못 다루고 정말 핵심이라고 생각되는 부분만 골라서 리뷰하겠습니다. Abstract (2017년 기준) 최근 SR 모델들이 깊어지고 빨라지는 등 많은 발전이 있었으나, upscaling factor가 클 때 어떻게 세밀한 texture를 복원할 것인지에 대한 문제는 여전히 남아 있습니다. 기존 optimization based 방법론 (L1, L2 loss 기반 최적화) 들은 PSNR에서는 큰 ..
요즘 Transformer 계열의 무언가들이 막 쏟아져 나오고 있죠... 그중 CNN을 대체할 수 있다는 ViT 모델에 대한 연구도 매우 활발히 이루어 지고 있습니다. 추후에 An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale 논문도 다루게 될 것 같습니다. 이 Transformer라는 녀석은 Self-attention이라는 메커니즘을 전적으로 활용하는 모델입니다. Transformer 관련 공부를 하면서 대충 입력이 뭐고 출력이 뭐고 계산이 어떻게 되고는 이해를 했지만, 본질적인 Attention 메커니즘이 와닿지 않았습니다. Attention 자체는 Transformer 에서 처음 소개된 것이 아니기 때문에 관련 연구가..