인공지능 시대의 도래에 앞서, 머신러닝에 기반한 융합 연구의 중요성이 여러 학문 분야에서 부각되고 있습니다. 머신러닝 이론에 대한 심도있는 고찰은 따라가기식 지식이 아닌 선도적이고 깊이 있는 지식 생성의 기반이 됩니다.

이에 한국정보과학회 인공지능소사이어티에서는 2018년 1월 24일-1일 25일에 걸쳐 “2018년 패턴인식 및 기계학습 겨울학교”를 개최합니다. 다양한 분야에서 패턴인식 및 기계학습을 연구하고 계시는 국내 최고 권위의 연사들을 모시고, 알찬 강의를 준비해 보았습니다. 많은 분들이 겨울학교에 참가하여 머신러닝에 대한 심도있는 이해와 고찰의 시간이 될 수 있기를 기대합니다.

2017년 11월 21일
한국정보과학회 인공지능소사이어티 교육부회장 신현정 (아주대학교)
한국정보과학회 인공지능소사이어티 수석부회장 최승진 (POSTECH)
한국정보과학회 인공지능소사이어티 회장 김  선 (서울대학교)

Recent Progress in Few-shot Learning using Deep Networks

강사

김건희 교수

내용

깊은 신경망 모델은 여러 인식 분야에서 놀라운 성공을 거두워 왔지만, 모델의 성능을 높이기 위해서는 양질의 학습데이터가 매우 많이 필요하다는 한계가 있다. 이에 대한 대안으로 딥러닝 연구에서 소수의 데이터 만으로 새로운 클래스를 배울 수 있는 few-shot learning에 대한 관심이 높아지고 있다. 본 강연에서는 few-shot learning과 learn-to-learn 분야의 기본적인 개념과 문제 정의와 더불어 최신 연구에 대해서 소개한다.

약력

  • 2015-현재: 서울대학교 공과대학 컴퓨터공학과 조교수
  • 2013-2015: 박사후 연구원, Disney Research
  • 2009-2013: Carnegie Mellon University, 전산학 박사

홈페이지

http://vision.snu.ac.kr

Variational Inference

강사

최승진 교수

내용

A probabilistic model is represented by a joint distribution over a set of hidden variables and a set of observed variables. Inference about unknowns is done via calculating posterior distributions over hidden variables given the observations. Two big hammers for probabilistic inference include: (1) sampling methods; (2) variational inference (topic of today). In this talk, I begin with ‘variational method’ and explain how variational method is applied to probabilistic inference, leading to ‘variational inference’. I also introduce various recent advances in variational inference, including improvements with volume-preserving transformations, inference using implicit distributions. My particular emphasis is given to deep models with variational inference.

약력

  • 2001-현재 : POSTECH 컴퓨터공학과 교수
  • 1990-1996 : Ph. D in. EE, University of Notre Dame

Graphs in Machine Learning

강사

신현정 교수

내용

Graphs in machine learning are used as models for networks or as nonparametric basis to learn the structure of data. This talk will present essential concepts and algorithms to work with graphs. Then, some ML applications will be presented, accordingly theories behind them will be followed. Then, the talk will be stretched to comprehensible knowledge on many of graph based ML algorithms, including spectral clustering, manifold learning, semi-supervised learning, random walks, and so on.

약력

  • 2017-현재 : 한국정보과학회 기계학습연구회 회장
  • 2017-현재 : 한국정보과학회 인공지능소사이어티 교육부 회장
  • 2014-현재 : 서울대 의과대학 유전체/임상/정보분석 전문가과정 강사
  • 2013-현재 : 대한 의료정보학회 정보의학인증의 운영진 및 강사
  • 2011-현재 : 국민건강보험 심사평가원 검사 심의위원회 부위원장
  • 2007-현재 : 한국 BI 데이터마이닝 학회 등기이사
  • 2006-2006 : 서울대학교 의과대학 연구교수
  • 2005-2006 : Friedrich-Mierscher-Lab, Max-Planck-Institute(독일) 수석연구원
  • 2004-2005 : Max-Planck-Institute for Biological Cybernetics(독일) 연구원
  • 2000-2005 : 서울대학교 공과대학 (산업공학/데이터마이닝) 공학박사

홈페이지

http://www.alphaminers.net

Graphical Models

강사

노영균 교수

내용

본 강의에서는 확률 그래프 모델(Probabilistic graphical model)의 기본 개념을 다룬다. 그래프 모델을 사용하는 이유를 모델 복잡도를 줄이는 측면에서 설명하고 도메인 지식을 표현하는 방법이나 다변수 과학 모델을 만드는 방법으로 그래프 모델을 사용하는 방법을 설명한다. 특별히 많은 데이터에만 의존하여 비선형 매핑(nonlinear mapping) 함수를 찾는 방법들과 비교하여 그래프 모델을 통해 도메인 지식을 이용하는 방법의 장점을 설명한다. 방향성(Directed, Bayesian Network), 비방향성(Undirected, Markov Random Field) 확률그래프모델의 표현 방법, 그리고 학습 방법과 간단한 추론(Inference) 방법을 다룬다.

약력

  • 2015 - 현재 : 서울대학교 기계항공공학부 BK조교수
  • 2013 - 2014 : KAIST 전산학과 연구조교수
  • 2011 : 서울대학교 인지과학 협동과정 박사
  • 2007 - 2012 : 펜실베니아대학 GRASP 연구실 방문연구원

홈페이지

http://machinelearning.snu.ac.kr

Recent Advances in Neural Network Models for NLP

강사

오혜연 교수

내용

In this lecture, I will describe the recent advances neural network models for natural language processing. The models I will cover include LSTM and its variants, variational autoencoders, character- and word- based multilingual embeddings, and attention- and memory-augmented networks. I will explain how these models are used to improve the state-of-the-art in the problem domains of machine translation, dependency parsing, summarization, and other semantic and syntactic understanding tasks.

약력

  • 2008-현재 : KAIST 전산학과 조교수

홈페이지

http://uilab.kr

Regularization

강사

한보형 교수

내용

Machine learning algorithms always suffer from overfitting issues. This tutorial introduces various regularization techniques used in traditional machine learning algorithms and discusses how they work theoretically and/or empirically. In addition to the standard methods, I also present several interesting regularization techniques that are widely used in deep learning.

약력

  • 2014-현재 : POSTECH 컴퓨터공학과 부교수
  • 2010-2014 : POSTECH 컴퓨터공학과 조교수
  • 2005 : University of Maryland at College Park 컴퓨터과학 박사

홈페이지

http://cvlab.postech.ac.kr
등록비 일반 학생
사전등록 250,000 150,000
현장등록 300,000 200,000

참가등록 바로가기

서울대학교 박물관 강당

Top