| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | ||||||
| 2 | 3 | 4 | 5 | 6 | 7 | 8 |
| 9 | 10 | 11 | 12 | 13 | 14 | 15 |
| 16 | 17 | 18 | 19 | 20 | 21 | 22 |
| 23 | 24 | 25 | 26 | 27 | 28 | 29 |
| 30 | 31 |
- FunctionGemma
- docker
- Kubernetes
- 인공지능
- Fultter
- DART
- coding
- 딥러닝
- 클론코딩
- 야호
- 영화
- lightly
- Python
- 엔지니어
- Gemma
- GenAI
- llm
- image
- 리뷰
- 논문리뷰
- Type
- 파이썬
- Flutter
- clone
- chatGPT
- container
- Ai
- YOLO
- ultralytics
- 구글
- Today
- Total
목록2022/01 (3)
딥러닝 공부방입니다. 근데 이제 야매를 곁들인.
이전 논문리뷰를 기반으로 설명해야해서 안 읽으신 분들은 한번 가볍게 보고 오시는 것을 추천합니다. https://zeroact.tistory.com/entry/%EB%85%BC%EB%AC%B8%EB%A6%AC%EB%B7%B0-Photo-Realistic-Single-Image-Super-Resolution-Using-a-Generative-Adversarial-Network [논문리뷰] Photo-Realistic Single Image Super-Resolution Using a Generative Adversarial Network 요즘 Super Resolution을 공부하기 시작해서 앞으로 SR 관련 논문 리뷰를 하게 될 것 같습니다. 이 논문 이전에 base가 되는 논문들이 있지만, 내용이 딱히..
요즘 Super Resolution을 공부하기 시작해서 앞으로 SR 관련 논문 리뷰를 하게 될 것 같습니다. 이 논문 이전에 base가 되는 논문들이 있지만, 내용이 딱히 어렵지 않아서 그냥 필요할 때 키워드만 찾아보면 될 것 같아서 건너뛰고 GAN부터 시작하겠습니다. 최근에 좀 바빠져서 이제 각 파트별로 자세히는 못 다루고 정말 핵심이라고 생각되는 부분만 골라서 리뷰하겠습니다. Abstract (2017년 기준) 최근 SR 모델들이 깊어지고 빨라지는 등 많은 발전이 있었으나, upscaling factor가 클 때 어떻게 세밀한 texture를 복원할 것인지에 대한 문제는 여전히 남아 있습니다. 기존 optimization based 방법론 (L1, L2 loss 기반 최적화) 들은 PSNR에서는 큰 ..
요즘 Transformer 계열의 무언가들이 막 쏟아져 나오고 있죠... 그중 CNN을 대체할 수 있다는 ViT 모델에 대한 연구도 매우 활발히 이루어 지고 있습니다. 추후에 An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale 논문도 다루게 될 것 같습니다. 이 Transformer라는 녀석은 Self-attention이라는 메커니즘을 전적으로 활용하는 모델입니다. Transformer 관련 공부를 하면서 대충 입력이 뭐고 출력이 뭐고 계산이 어떻게 되고는 이해를 했지만, 본질적인 Attention 메커니즘이 와닿지 않았습니다. Attention 자체는 Transformer 에서 처음 소개된 것이 아니기 때문에 관련 연구가..