AI YEAH
최근 들어서, AI 기초에 대한 글을 정말 많이 만들었다.
이 글들을 누구나 한 눈에 볼 수 있게 정리해 두었다.
AI 책 추천
AI 논문 리뷰
- PINN에서 add&Norm을 사용하지 못하는 이유
- [논문 리뷰] Attention Is All You Need
- [논문리뷰] How LLMs are Shaping the Future of Virtual Reality
- [논문 리뷰] Dropout Reduces UnderfittingLanguage
- [논문 리뷰] Transformers without Normalization
- [논문 리뷰] Transformers: State-of-the-Art Natural Language Processing
- [논문 리뷰] LoRA: Low-Rank Adaptation of Large Language Models
- [논문 리뷰] Quartet: Native FP4 Training Can Be Optimal for Large Language Models
- [논문 리뷰] Training FP8 Large Language Models
AI Basics
- AI 입문용 글 모음
- AI 입문 번외편: 머신러닝과 딥러닝의 기초, 트랜스포머와의 연계 및 실전 적용
- AI 입문 10편: 트랜스포머 변형, Fine-Tuning, ONNX)
- AI 입문 9편: 트랜스포머 최적화와 스케일링
- AI 입문 8편: 트랜스포머의, Seq2Seq, 타 아키텍쳐와 비교
- AI 입문 7편: 인코더·디코더와 포지셔널 인코딩
- AI 입문 6편: FFN과 잔차 연결
- AI 입문 5편: 어텐션
- AI 입문 4편 확장 통합판: 정규화
- AI 입문 3편: 활성화 함수
- AI 입문 2편: 미분·적분·Dense Layer
- AI 입문 1편: 토큰화에서 소프트맥스까지
Linear Algebra
- 다양한 Autoencoder
- Upsampling Conv
- AI 신경망 그려주는 사이트 모음
- L1, L2 Norm
- 딥러닝 시뮬레이션
- 딥러닝의 정규화 (Regularization)
- 베르누이 분포
- Yolo Loss Function
- RMSProp
- Momentum
- Adam
- Adagrad
- 전치 표기법
- 분류시 델타 계산
- Maxpooling Layer
- Conv Layer
- Activation Function
- Overfitting
- Flatten Layer
- Loss Function MSE
- Loss Function MAE
- Gradient Explosion
- local minima global minimum
- Gradient Descent method
- Hadamard Product
AI 강의
AI Architecture
- AI 아키텍쳐 6. LCM
- Yolo모델 아키텍쳐
- AI 아키텍쳐 5. T5-base
- AI 아키텍쳐 4. GPT-oss-20B
- AI 아키텍쳐 3. GPT-2
- AI 아키텍쳐 2. BART
- AI 아키텍쳐 1. BERT
- 다양한 AI의 아키텍텨를 알아보자
PINN
AI Tool