Difference between revisions of "HPC16"

From HTC-as-a-Service, KISTI
Jump to: navigation, search
(Program)
(Talk Abstracts)
Line 100: Line 100:
 
사용되는 재귀적 신경망(recurrent neural network)의 구조를 소개하고, 이들 신경망 구조와 해당 학습
 
사용되는 재귀적 신경망(recurrent neural network)의 구조를 소개하고, 이들 신경망 구조와 해당 학습
 
알고리즘들이 어떻게 영상 분류나 음성 인식 등의 문제에 응용되었고 이들 분야에서 얼마나 혁신을 가져왔는지 알아본다.
 
알고리즘들이 어떻게 영상 분류나 음성 인식 등의 문제에 응용되었고 이들 분야에서 얼마나 혁신을 가져왔는지 알아본다.
 +
 +
 +
=== Introduction to the TensorFlow Programming Model, API and Distributed Runtime ===
 +
 +
TensorFlow는 Deep Learning기반 Machine Learning 연산을 그래프 모델로 표현하고,
 +
그래프 모델의 노드인 Operation 요소간에 Tensor 데이터 구조를 교환하면서 Deep Learning을
 +
모델링하는 machine learning framework이다. 이 강의에서는 TensorFlow의 어떤 점이
 +
전통적인 machine learning framework인 Theano와 Caffe보다 최근 더 각광을 받고 있는지
 +
살펴본다. TensorFlow의 programming model을 살펴보면서 TensorFlow를 이용해
 +
Deep Learning model을 디자인하고 만들 때 유의해야 할 부분에 대해서도 같이 살펴보고,
 +
TensorFlow API의 활용 방법에 대해서도 살펴본다. 최근 발표된 Distributed Runtime API를
 +
이용해 분산 병렬 deep learning model을 만드는 방법에 대해서 살펴보고, 대형 deep learning
 +
model 개발 및 학습의 중요성 및 TensorFlow 아키텍처의 장점에 대해서도 같이 살펴본다.
  
 
=== 인공지능 컴퓨팅 환경 확보 방안 및 전략 (소프트웨어정책연구소 추형석박사) ===
 
=== 인공지능 컴퓨팅 환경 확보 방안 및 전략 (소프트웨어정책연구소 추형석박사) ===

Revision as of 12:37, 22 July 2016



2016 한국정보과학회 HPC 연구회 하계 워크숍

Mis.jpeg

  • 2016년 8월 25일(목)- 26일(금), Homeplus Academy GrandRoom
  • 주최 및 주관: 정보과학회 고성능 컴퓨팅 연구회


Program

  • 8월 25일(목)
Time Description Presenter
12:00-13:00 등록


세션 1 좌장 : 이재환 교수(항공대)
13:00-13:45 Neural Network and Deep Learning 원중호 교수

(서울대)

13:45-14:30 Introduction to the TensorFlow Programming Model, API and Distributed Runtime 김진철 박사

(SKTelecom)

14:30-15:15 분산 딥러닝 오픈소스 소프트웨어 프레임워크 비교(TensorFlow, CNTK, Petuum, MxNet) 김건희 교수

(서울대)

15:15-15:45 Break Time
세션 2 좌장 : 김영재 교수(아주대)
15:45-16:30 딥러닝 가속 하드웨어: GPU or Accelerator 노원우 교수

(연세대)

16:30-17:15 인공지능 컴퓨팅 환경 확보 방안 및 전략 추형석 박사

(SPRi)

17:15-18:00 패널 토의 다같이
18:00 - 이동 및 저녁 식사 다같이


  • 8월 26일(금)
Time
9:30 - 11:30 HPC 연구회 현안 및 발전방향 논의 다같이

Talk Abstracts

Neural Network and Deep Learning (서울대학교 원중호교수)

최근 깊은 인공신경망(artificial neural network) 구조에 기반한 딥러닝(deep learning) 학습 알고리즘이 패턴 인식의 다양한 응용 분야에서 혁신적인 성능 향상을 불러 일으키고 있다. 본 튜토리얼에서는 먼저 기본적인 인공신경망의 개념과 학습 알고리즘에 대해 정리하고, 이어서 딥러닝 알고리즘의 기본적 구조와 주요 결과들을 간략히 소개한 뒤, 그동안 딥러닝이 가장 큰 성능 향상을 가져온 분야인 영상 인식과 순차적 자료 인식에 대해 좀 더 자세히 알아본다. 구체적으로, 영상 인식에 주로 사용되는 컨볼루셔널 신경망(convolutional neural network) 및 순차적 자료 인식에 주로 사용되는 재귀적 신경망(recurrent neural network)의 구조를 소개하고, 이들 신경망 구조와 해당 학습 알고리즘들이 어떻게 영상 분류나 음성 인식 등의 문제에 응용되었고 이들 분야에서 얼마나 혁신을 가져왔는지 알아본다.


Introduction to the TensorFlow Programming Model, API and Distributed Runtime

TensorFlow는 Deep Learning기반 Machine Learning 연산을 그래프 모델로 표현하고, 그래프 모델의 노드인 Operation 요소간에 Tensor 데이터 구조를 교환하면서 Deep Learning을 모델링하는 machine learning framework이다. 이 강의에서는 TensorFlow의 어떤 점이 전통적인 machine learning framework인 Theano와 Caffe보다 최근 더 각광을 받고 있는지 살펴본다. TensorFlow의 programming model을 살펴보면서 TensorFlow를 이용해 Deep Learning model을 디자인하고 만들 때 유의해야 할 부분에 대해서도 같이 살펴보고, TensorFlow API의 활용 방법에 대해서도 살펴본다. 최근 발표된 Distributed Runtime API를 이용해 분산 병렬 deep learning model을 만드는 방법에 대해서 살펴보고, 대형 deep learning model 개발 및 학습의 중요성 및 TensorFlow 아키텍처의 장점에 대해서도 같이 살펴본다.

인공지능 컴퓨팅 환경 확보 방안 및 전략 (소프트웨어정책연구소 추형석박사)

지난 3월 "알파고 충격"으로 인해 인공지능에 대한 대중적관심이 급증했다. 최근 인공지능 성공의 원동력은 크게 빅데이터의 확산, 저렴한 고성능 하드웨어의 보급, 공개소프트웨어 등이 있다. 빅데이터를 학습하여 지능적 의사결정이 가능해진 시점에서, 이를 직접 구현하기 위한 컴퓨팅 환경은 인공지능 연구에 있어 가장 선결되어야 하는 요소이다. 따라서 인공지능 연구 확산의 첫 번째 키워드는 컴퓨팅 환경의 구축이다. 본 발표에서는 인공지능 연구가 얼마나 많은 연산을 요구하는지 구체적인 예를 들어서 설명하고자 한다. 특히 GPU가 왜 딥러닝에 최적화된 연산처리장치인 그 근거에 대해서도 살펴볼 것이다. 마지막으로 인공지능 연구 활성화를 위한 컴퓨팅 자원 확보 방안에 대해서 논의하고자 한다.

Registration Fee

구분 등록비
정회원 300,000원
학생회원 150,000원
비회원(일반) 350,000원
비회원(학생) 200,000원

Location

홈플러스 아카데미(무의도)

  • 주소 : 인천광역시 중구 대무의로 159
  • 전화 : 032-745-8300~1
  • 네비게이션에 “잠진도 선착장”을 입력해 주십시오.

map1.gif

Contact

Soonwook Hwang, KISTI, hwang AT kisti.re.kr

Sponsors

logo-kisti.jpg NISN.jpg

logo.jpg