Skip to the content
Search
Docceptor.net
Menu
Home
Courses
Resources
Log In
Register
Search
Home
All Courses
머신러닝 (Machine Learning) 2021 Spring Version
머신러닝 (Machine Learning) 2021 Spring Version
Curriculum
12 Sections
30 Lessons
10 Weeks
Expand all sections
Collapse all sections
머신러닝 강의 노트
1
2.1
머신러닝 강의노트
1. 머신러닝 기초 소개
2
3.1
1-1 머신러닝 소개 (1)
3.2
1-2 머신러닝 소개 (2)
2. 머신러닝에 필요한 확률 배경 지식
2
4.1
2-1 랜덤 변수, 확률 분포, 조건부 확률, Bayes rule
4.2
2-2 조건부 확률 예제, Posterior, likelihood, prior 개념
3. 머신러닝에서 확률 기반 판단 기준, Maximum A Posteriori vs. Maximum Likelihood Estimation
1
5.1
3-1 Maximum A Posteriori vs. Maximum likelihood estimation 이해 MAP vs. MLE – Number Game 예제
4. Linear Regression
3
6.1
4-1 Linear regression
6.2
4-2 Linear regression으로 알아보는 머신러닝에 확률 적용 기초
6.3
4-3 Python 처음 setup and Linear regression 실습
5. Logistic Regression
2
7.1
5-1 간단한 Logistic regression (MLE, cost function) 및 Python Practice
7.2
5-2 Logistic regression의 고차원 데이터 및 multi-class 처리
6. k-NN Classification
1
8.1
6 k-NN Classification 및 python practice
7. Clustering & EM algorithm
4
9.1
7-1 k-Means Clustering 및 EM algorithm 기초
9.2
7-2 GMM Clustering 및 EM algorithm
9.3
7-3 GMM Clustering 에서 Maximization step (MLE)
9.4
7-4 Python practice for k-Means & GMM Clustering
8. Support Vector Machine (SVM)
7
10.1
8-1 Support Vector Machine 기초
10.2
8-2 SVM 이해를 위한 Kernel trick 기초
10.3
8-3 SVM 이해를 위한 Lagrange Mulitplier & KKT condition
10.4
8-4 본격 SVM boundary 수학적 이해 및 유도-1
10.5
8-5 본격 SVM boundary 수학적 이해 및 유도-2
10.6
8-6 SVM의 soft margin과 kernel trick적용
10.7
8-7 SVM Python practice
9 Artificial Neural Network
4
11.1
9-1 Artificial Neural Network와 Perceptron 소개
11.2
9-2 Multi-layer perceptron (MLP) 소개
11.3
9-3 MLP training
11.4
9-4 Python으로 MLP 직접 코딩해보기
10 Convolution Neural Network (CNN)
3
12.1
10-1 CNN 기초; 어떻게 만들었을까
12.2
10-2 LeNet-5로 알아보는 CNN 사례
12.3
10-3 다양한 CNN 구조
0
This content is protected, please
login
and
enroll
in the course to view this content!
Modal title
Main Content