딥러닝예제로보는개발자를위한통계 최재걸

  1. 1. Statistics for Computer Science 최재걸 통합검색
  2. 2. Deview 2015.. Data Mining (KDD) Machine Learning ( AI ) Statistics From http://www.kdnuggets.com/2014/06/data-science-skills-business-problems.html
  3. 3. 1. ML, DM and Statistics
  4. 4. 1.1Data Mining From www.saedasayad.com -Solving everything -Algorithmic & Efficient
  5. 5. 1.3 Data Mining - Experience 데이터마이닝으로 해결한 문제가 많다 해결못한 것도 많다
  6. 6. 1.2 Machine Learning From http://www.humphreysheil.com/blog/dee p-learning-and-machine-learning -AI is all of computer science -Learn, learn and learn
  7. 7. 1.2 Machine Learning - experience 머신 러닝으로 해결한 문제도 많다. 해결 안되는 것도 많다
  8. 8. 1.3 Statistics From www.quora.com - The World is probabilistic - Model and Distribution Too formal but strong
  9. 9. 1.4 Why statistics? Data Mining (KDD) Machine Learning ( AI ) Statistics DATA  Probability – inevitably Association Rule ( Conditional Probability) K-means ( EM ) 1. NO BLACK BOX 2. BREAKTHROUGH 畵龍點睛
  10. 10. 2. A Statistical View of Deep Learning From http://blog.shakirm.com/wp- content/uploads/2015/07/SVDL.pdf
  11. 11. 2.1 Deep Learning in ML Neural Net을 알고있으니 잘 할 수 있을거라 생각. 2012년 input hidden output Class..두개니까.. 1,0 Sigmoid로 activation 숫자.. 음.. 4개의 classifier 목적함수 J 만들고, 학습은, 미분해서 backpropagation.. “Oh.. Piece of Cake!”
  12. 12. 2.1 Deep Learning in ML !!! 구글 DistBelief “그래봐야 뉴럴넷”
  13. 13. 2.1 Deep Learning in ML 딥러닝이 너무 선전… 나도 해야하는 것 아닌가? 2013년 input hidden1 output hidden2 숫자.. 4개의 classifier 다시 3개.. Class..두개니까.. 1,0 Hidden node 에서 엑티베이션. 다시 hidden. Correlation을 엄청나게 고려하겠다는 거군.. Ok! “Oh.. Piece of Cake!”
  14. 14. 2.1 Deep Learning in ML 도전!!! CNN 갑자기 왠 컨볼루션? Sub-sampling? “막하자는겁니까?”
  15. 15. 2.1 Deep Learning in ML 딥러닝은 운명. 7전8기 input hidden1 hidden2 “3차 포기 임박” outputhidden3 Stochastic gradient descent는 많이 쓰는 거고, Overfitting이야 생길수 있으니, 정규화패턴 넣어주고. Vanishing problem? ReLU, Drop OUT ?.. ㅠㅜ.
  16. 16. 2.1 Deep Learning in ML ReLU의 정체 Hinton 교수가 2010년 BM 의 성능이 향상된다고 발표한 것. “Activation function은 이름을 잘못지었다.” Hinton. The Great British
  17. 17. 2.1 Deep Learning in Statistics ReLU의 정체 g 맞긴 하지만 그렇게만 말하면 안되지 않나요...ㅠㅜ g는 Sigmoid 함수  목적은 activation하기 위해서.. “Sigmoid 가 아니어도 된다. Non-linear하게 값을 전달하고자 할뿐”Linear Model Sigmoid 자리에 다른 함수가 들어가도 된다..
  18. 18. 2.1 Deep Learning in Statistics Generalized Function g Generalized Linear Model Sigmoid 자리에 다른 함수가 들어가도 된다.. weight input 1. Output이 linear 2. Output 이 1,0 3. Output 이 횟수 4. Output이 linear가 아닐때..
  19. 19. 2.2 Deep Learning in Statistics Generalized Linear Model input hidden1 GLM Layer 하나가 여러 개의 GLM으로 파악된다. LM g GLMs “glm은 매우 익숙”
  20. 20. 2.2 Deep Learning in Statistics Recursive Generalized Linear Model GLM의 중첩이 DNN이다. LM g GLMs input hidden1 output hidden2 LM g
?

List of Articles
번호 제목 글쓴이 날짜 조회 수
11 대용량 텍스트마이닝 기술 하정우 file 관리자 2016.11.04 111
» 딥러닝예제로보는개발자를위한통계 최재걸 file 관리자 2016.11.04 49
9 Multimodal Residual Learning for Visual Question-Answering file 관리자 2016.11.04 166
8 yarn 기반의 deep learning application cluster 구축 김제민 file 관리자 2016.11.04 125
7 backend 개발자의 neural machine translation 개발기 김상경 file 관리자 2016.11.03 149
6 베이지안토픽모형 강병엽 file 관리자 2016.11.03 42
5 papago 김준석 file 관리자 2016.11.03 40
4 챗봇 개발을 위한 네이버 랩스 api file 관리자 2016.11.03 95
3 딥러닝과 강화 학습으로 나보다 잘하는 쿠키런 AI 구현하기 DEVIEW 2016 file 관리자 2016.11.03 63
2 딥러닝을 활용한 이미지 검색 포토요약과 타임라인 최종 file 관리자 2016.11.03 69
1 딥러닝을 이용한 지역 컨텍스트 검색 김진호 file 관리자 2016.11.03 91
Board Pagination Prev 1 Next
/ 1