Channel Avatar

ν˜νŽœν•˜μž„ | AI & λ”₯λŸ¬λ‹ κ°•μ˜ @UCcbPAIfCa4q0x7x8yFXmBag@youtube.com

92K subscribers - no pronouns :c

ꡐ보문고 λ² μŠ€νŠΈμ…€λŸ¬ [Easy! λ”₯λŸ¬λ‹] μ €μž ν˜„) μ„±κ· κ΄€λŒ€ν•™κ΅ μ˜κ³ΌλŒ€ν•™ μ΄ˆλΉ™κ°•μ‚¬ ν˜„) ν˜νŽœν•˜μž„ 아카데미


20:50
[νŒŒμ΄ν† μΉ˜] 2κ°•. PyTorch의 핡심! autogradλ₯Ό μ•Œμ•„λ³΄μž (requires_grad, backward(), torch.no_grad() λ“±..)
30:40
[νŒŒμ΄ν† μΉ˜] 1-4κ°•. νŒŒμ΄ν† μΉ˜μ˜ μ—¬λŸ¬ ν•¨μˆ˜λ“€
22:49
[νŒŒμ΄ν† μΉ˜] 1-3κ°•. κ³ μˆ˜λ“€λ§Œ μ•„λŠ” 인덱싱 기술 총정리
13:03
[νŒŒμ΄ν† μΉ˜] 1-2κ°•. ν…μ„œμ˜ 인덱싱 (기초)
09:41
[νŒŒμ΄ν† μΉ˜] 1-1κ°•. torch.tensor()와 ν…μ„œμ˜ κΈ°λ³Έ μ—°μ‚°
06:03
[νŒŒμ΄ν† μΉ˜] 0κ°•. μ˜€λ¦¬μ—”ν…Œμ΄μ…˜
20:56
[Easy! λ”₯λŸ¬λ‹] 8-6κ°•. μ •κ·œν™”(Regularization)와 MAP(Maximum A Posteriori) [[ μ‹€ν—˜ μ˜μƒ 포함! ]]
08:52
[Easy! λ”₯λŸ¬λ‹] 8-5κ°•. 당신이 λͺ°λžλ˜ Dropout에 λŒ€ν•œ 진싀 [[ 비ꡐ μ‹€ν—˜ 포함! ]]
03:53
[Easy! λ”₯λŸ¬λ‹] 8-4κ°•. 과적합(overfitting)κ³Ό 데이터 증강(data augmentation)
02:28
[Easy! λ”₯λŸ¬λ‹] 8-3κ°•. Loss Landscape이 꼬뢈꼬뢈 해진닀?! [[ μ‹€ν—˜ μ˜μƒ 포함! ]]
19:08
[Easy! λ”₯λŸ¬λ‹] 8-2κ°•. 이 μ˜μƒ ν•˜λ‚˜λ‘œ λλ‚΄μ„Έμš”! | 배치 μ •κ·œν™” & λ ˆμ΄μ–΄ μ •κ·œν™” (Batch Normalization & Layer Normalization)
21:33
[Easy! λ”₯λŸ¬λ‹] 8-1κ°•. Vanishing Gradient (기울기 μ†Œμ‹€) 와 ReLU [[ μ‹€ν—˜ μ˜μƒ 포함! ]]
13:59
[Easy! λ”₯λŸ¬λ‹] 7κ°•. μ˜μƒ μ•ˆ 보고 ν’€λ©΄ 천재! | Universal Approximation Theorem (보편 근사 정리)
24:39
[Easy! λ”₯λŸ¬λ‹] 6-5κ°•. μ†Œν”„νŠΈλ§₯슀 νšŒκ·€(Softmax regression)의 λͺ¨λ“  것 | 닀쀑 λΆ„λ₯˜ (multiclass classification)
20:22
[Easy! λ”₯λŸ¬λ‹] 6-4κ°•. 이거 많이 μ–΄λ ΅μŠ΅λ‹ˆλ‹€.. μƒμœ„ 1%만 μ•Œκ³  μžˆλŠ” λ”₯λŸ¬λ‹μ˜ 뿌리 이둠! MLE (Maximum Likelihood Estimation)
06:29
[Easy! λ”₯λŸ¬λ‹] 6-3κ°•. MSE vs BCE 비ꡐ 뢄석
21:41
[Easy! λ”₯λŸ¬λ‹] 6-2κ°•. λ‘œμ§€μŠ€ν‹± νšŒκ·€(Logistic regression)의 λͺ¨λ“  것 | 이진 λΆ„λ₯˜ (binary classification)
15:13
[Easy! λ”₯λŸ¬λ‹] 6-1κ°•. μ™œ 이진 λΆ„λ₯˜μ—μ„œ sigmoidλ₯Ό μ‚¬μš©ν• κΉŒ?
18:40
[Easy! λ”₯λŸ¬λ‹] 5-2κ°•. μ—­μ „νŒŒ(Backpropagation) μ„Έμƒμ—μ„œ κ°€μž₯ μ‰¬μš΄ μ„€λͺ…!
20:36
[Easy! λ”₯λŸ¬λ‹] 5-1κ°•. 인곡 신경망을 λ°”λΌλ³΄λŠ” 톡찰λ ₯이 생긴닀..! | linear activation이 쀑간에 λ“€μ–΄κ°€λ©΄??
06:16
[Easy! λ”₯λŸ¬λ‹] 4-2κ°•. K-fold Cross Validation (ꡐ차 검증) μ§„μ§œ μ‰½κ²Œ μ„€λͺ…ν•΄ λ“œλ €μš”
09:52
[Easy! λ”₯λŸ¬λ‹] 4-1κ°•. Validation 데이터가 κΌ­ ν•„μš”ν•œ 이유 | ν…ŒμŠ€νŠΈ 데이터와 차이점은??
13:34
[Easy! λ”₯λŸ¬λ‹] 3-6κ°•. Adam (Adaptive Moment Estimation) μ™„λ²½ 정리!
05:48
[Easy! λ”₯λŸ¬λ‹] 3-5κ°•. RMSProp μˆ˜μ‹ 없이 μ„€λͺ…ν•˜κΈ°
07:00
[Easy! λ”₯λŸ¬λ‹] 3-4κ°•. momentum μ‰¬μš΄ μ„€λͺ… | μΉ˜νƒ€λ§Œ κΈ°μ–΅ν•˜μ„Έμš”!
16:07
(( 마감 μž„λ°• !! )) 2024 AWS 써밋 μ„œμšΈ | μ½”μ—‘μŠ€μ—μ„œ λ§Œλ‚˜μš”~!!
13:44
[Easy! λ”₯λŸ¬λ‹] 3-3κ°•. mini-batch GD & 배치 크기λ₯Ό λ¬΄μž‘μ • ν‚€μš°λ©΄ μ•ˆ λ˜λŠ” 이유
11:58
[Easy! λ”₯λŸ¬λ‹] 3-2κ°•. ν™•λ₯ μ  경사 ν•˜κ°•λ²• (SGD: Stochastic Gradient Descent) μ£Όλ¨Έλ‹ˆ μ˜ˆμ‹œλ‘œ μ‰½κ²Œ μ„€λͺ…ν•΄ λ“œλ €μš”
04:49
[Easy! λ”₯λŸ¬λ‹] 3-1κ°•. Gradient Descent 의 두 가지 치λͺ…적 단점
12:09
ν˜„μ§ μ›Ή λ°±μ—”λ“œ 개발자 2λ…„ 차의 ν˜„μ‹€μ μΈ κ³ λ―Ό
10:25
[Easy! λ”₯λŸ¬λ‹] 2-5κ°•. μ›¨μ΄νŠΈ μ΄ˆκΈ°ν™” 기법듀 λΉ λ₯΄κ²Œ 정리해 λ“œλ €μš”
16:17
[Easy! λ”₯λŸ¬λ‹] 2-4κ°•. 경사 ν•˜κ°•λ²• (Gradient Descent) | step by step 으둜 μ°¨κ·Όμ°¨κ·Ό μ•Œμ•„λ³΄κΈ°
15:20
[Easy! λ”₯λŸ¬λ‹] 2-3κ°•. 이게 μ΄ν•΄λ˜λ©΄ λ”₯λŸ¬λ‹λ„ 이해됨! | μ„ ν˜• νšŒκ·€ (Linear Regression)
09:16
[Easy! λ”₯λŸ¬λ‹] 2-2κ°•. 인곡 신경망은 ν•¨μˆ˜λ‹€!
12:40
와.. 이 쒋은 κ±Έ μ—¬νƒœ λͺ°λžλ„€.. AWS "μ „μ•‘ 무료" AI ν™œμš© 온라인 κ°•μ˜!!
16:02
[Easy! λ”₯λŸ¬λ‹] 2-1κ°•. 인곡 신경망 λΉ„μœ λ‘œ μ‰½κ²Œ μ΄ν•΄ν•˜κΈ°!
17:13
[Easy! λ”₯λŸ¬λ‹] 1-4κ°•. κ°•ν™” ν•™μŠ΅ κ°œλ… 짧게 μ•Œμ•„λ³΄κΈ°
14:14
[Easy! λ”₯λŸ¬λ‹] 1-3κ°•. 자기 지도 ν•™μŠ΅ (Self-Supervised Learning) | λ”± 10λΆ„λ§Œ νˆ¬μžν•΄λ³΄μ„Έμš”!
06:51
4일 λ§Œμ— λ”₯λŸ¬λ‹ μž…λ¬ΈλΆ€ν„° νŠΈλžœμŠ€ν¬λ¨ΈκΉŒμ§€! | 판ꡐ λ©”νƒ€λ²„μŠ€ 캠퍼슀 AI κ°•μ˜
09:43
[Easy! λ”₯λŸ¬λ‹] 1-2κ°•. 지도 ν•™μŠ΅κ³Ό 비지도 ν•™μŠ΅ | ν™œμš© μ‚¬λ‘€κΉŒμ§€!
13:12
[Easy! λ”₯λŸ¬λ‹] 1-1κ°•. λͺ¨λ‘λ₯Ό μœ„ν•œ 정말 μ‰¬μš΄ λ”₯λŸ¬λ‹ κ°•μ˜λ₯Ό μ‹œμž‘ν•©λ‹ˆλ‹€!
26:37
λŒ€ν•™μ› μ•ˆκ°€κ³ λ„ μ‚Όμ„±μ „μž 합격! ν•˜μ§€λ§Œβ€¦
07:30
μš”μ¦˜ MZ μ„ΈλŒ€μ—κ²Œ μ›ŒλΌλ°Έμ΄ κΌ­ ν•„μš”ν•œ 이유
13:23
이거 λͺ¨λ₯΄λ©΄ 무쑰건 λ’€μ³μ§‘λ‹ˆλ‹€.. GPT4 미친 μ—…λ°μ΄νŠΈ! (10μ›” 31일)
05:27
[λ”₯λŸ¬λ‹] 12κ°•. AdamW
09:29
μ˜λŒ€μƒμ—κ²Œ 수λŠ₯μ—μ„œ 전체 λͺ‡ 개 틀렸냐고 묻닀 | μ „κ΅­ μ˜λŒ€ μΊ ν”„ AI κ°•μ˜
12:32
[λ”₯λŸ¬λ‹] 11κ°•. CBOW 와 Skip-Gram μ‰½κ²Œ μ•Œλ €λ“œλ¦΄κ²Œμš”
04:32
κ³΅λŒ€ λ‚˜μ˜¨ λ”₯λŸ¬λ‹ κ°•μ‚¬μ˜ νŒ¬μ„œλΉ„μŠ€ | λŒ€κ΅¬ μŠ€λ§ˆνŠΈμ‹œν‹°μ„Όν„° AI κ°•μ˜
15:54
[λ”₯λŸ¬λ‹] 10κ°•. Confusion matrix(ν˜Όλ™ ν–‰λ ¬) μ—μ„œ Recall(μž¬ν˜„μœ¨)κ³Ό Precision(정밀도) 더 이상 ν—·κ°ˆλ¦¬μ§€ λ§ˆμ„Έμš”! F1-score λŠ” 덀
05:57
[Legend 13] 3x3 μ»¨λ³Όλ£¨μ…˜κ³Ό 5x5 μ»¨λ³Όλ£¨μ…˜ receptive field 비ꡐ 뢄석
08:52
λŒ€ν•™μƒλ„, λŒ€ν•™μ›μƒλ„, 직μž₯인도 SNS ν•΄μ•Όν•˜λŠ” 이유
05:15
[λ”₯λŸ¬λ‹] 7-4κ°•. μ»¨λ³Όλ£¨μ…˜ λ ˆμ΄μ–΄κ°€ μ™œ 쒋은 κ±ΈκΉŒμš”?
09:11
[λ”₯λŸ¬λ‹] 6-4κ°•. Momentum κ³Ό RMSProp
09:24
[λ”₯λŸ¬λ‹] 6-3κ°•. GD vs SGD 비ꡐ
36:53
AI μŠ€νƒ€νŠΈμ—… 기술 λ©΄μ ‘ 기좜 문제 풀이 & μžμ„Έν•œ λΆ€μ—° μ„€λͺ…κΉŒμ§€!!
03:22
[2023λ…„ ν›„κΈ°] κ΅μˆ˜λ‹˜ λ§Œλ‚˜κΈ° 전에 κΌ­ 보고 κ°€μ„Έμš”! (HλŒ€ 인곡지λŠ₯ λŒ€ν•™μ›)
19:47
[2023λ…„ ν›„κΈ°] 사전 컨택할 λ•Œ κ΅μˆ˜λ‹˜μ΄ λ¬Όμ–΄λ³Έ 것듀 (CλŒ€ 인곡지λŠ₯ λŒ€ν•™μ›)
09:05
[2023λ…„ ν›„κΈ°] CλŒ€ 인곡지λŠ₯ λŒ€ν•™μ› λ©΄μ ‘ 기좜 문제 풀이
07:09
[Legend 13] VGG Net (2014.09)
15:44
[2023λ…„ ν›„κΈ°] KλŒ€ 인곡지λŠ₯ λŒ€ν•™μ› λ©΄μ ‘ 기좜 문제 풀이