Skip to content

MeganaD/machine_learning_from_scratch_with_python

 
 

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

59 Commits
 
 
 
 
 
 
 
 
 
 

Repository files navigation

Machine Learning from Scratch with Python

본 강의는 TEAMLABInflearn이 함께 구축한 데이터 사이언스 과정의 두 번째 강의인 밑바닥 부터 시작하는 머신러닝 입문 입니다. 밑바닥부터 시작하는 머신러닝 입문은 Part I과 Part II로 구성되어 있습니다.

본 강의는 TEAMLABInflearn이 함께 준비한 WADIZ 펀딩의 지원을 받아제작되었습니다. 아래 목록에 대한 강의를 개발할 예정입니다.

또한 기존 K-MOOC 과정은 아래 목록을 참고하시기 바랍니다.

Course overview

Course Info

  • 본 과정은 머신러닝에 대한 기초개념과 주요 알고리즘들에 대해 이해하고 구현하는 것을 목적으로 함
  • 본 과정을 통해 수강자는 데이터 과학에서 사용되는 다양한 용어에 대한 기본적인 이해를 할 수 있음
  • 본 과정의 기본적인 구성은 알고리즘에 대한 설명, Numpy를 사용한 구현, Scikit-Learn을 사용한 패키지 활용으로 이루어 져 있음
  • 수강자는 머신러닝에서 주로 사용되는 알고리즘을 구현하기 위해 고등학교 수준의 통계학과 선형대수학의 이해가 필요함
  • 수강자는 본 과정을 통해 Numpy, Pandas, Matplotlib, Scikit-Learn 등 데이터 분석을 위한 기본적인 파이썬 패키지를 이해하게됨

Course Contents

Chapter 1 - Introduction to Machine Learning

Chapter 2 - Warm Up Section: An understanding of data

Lecture

Supplements - Linear algebra

Chapter 3 - Numpy Section

Lecture

Supplements

Chapter 4 - Pandas Section #1

Lecture

Chapter 5 - Pandas Section #2

Lecture

Chapter 6 - Matplotlib Section & Miniproject

Lecture

  • Chapter overview - Matplotlib overview
  • Data Cleaning Problem Overview - 강의영상 강의자료
  • Missing Values - code
  • Categoical Data Handling - code
  • Feature Scaling - 강의영상, 강의자료, code
  • Basic functions & operations
  • Graph
  • Matplotlib with pandas
  • Casestudy - KagglepProblems
  • Miniproject - Preprocessing works for House Price Problmes

Chapter 7 - Linear Regression

Lecture

  • Linear regression overview
  • Cost functions
  • Linear Equality
  • Gradient descent approach
  • Linear regression wtih gradient descent
  • Linear regression wtih Numpy
  • Multivariate linear regression models
  • Multivariate linear regression with NumPy
  • Lab Assignment

Chapter 8 - Linear Regression extended

Lecture

  • Overfitting - bias vs. variance
  • Regularization - L1 and L2
  • Implementation of generalization with NumPy
  • Linear regression with sklearn
  • Polynomial regression
  • sklearn SGD family
  • Performance measure
  • Traing, test and Validation concepts

Chapter 9 - Logistics Regression

Lecture

Chapter 10 - Logistics Regression extended

Lecture

  • Softmax fucntion for Multi-class classification - 강의자료
  • Cross entropy loss function - 강의자료
  • Softmax regression - 강의자료
  • Performance measures for classification
  • ROC Curve & AUC
  • Hyperparmeter searching
  • Data sampling method
  • Handling imbalanced dataset - Oversamplingm, Undersampling, and SMOTE

Chapter 11 - Naive Bayesian Classifier

Lecture

Chapter 12 - Decision Tree

Lecture

Chapter 13 - How to improve a performance of your model

Lecture

  • Chapter intro
  • Ensemble model overview
  • Random Forest
  • Boosting, Bagging, AdaBoost
  • Implemnting ensemble classifier with sklearn
  • Gradient boosting - XGBoost, GBM & LightGBM
  • Stacking
  • Feature Engineearning
  • Hyperparmeter searching advanced
  • Hyperparmeter searching with Parallel training
  • AutoML

Chapter 14 - Support Vector Model

Lecture

Chapter 15 - Neural Network

Lecture

참고자료

Textbooks

  • Reading materials
  • Supplementary textbooks

Prerequisites - 수강전 이수 또는 수강중 들었으면 하는 교과들

About

No description, website, or topics provided.

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

 
 
 

Contributors

Languages

  • Jupyter Notebook 96.2%
  • HTML 2.1%
  • Python 1.5%
  • Other 0.2%