《基于GPU的并行计算及CUDA编程》2010春季培训通知
| 来源:信息化工作网【字号:大 中 小】
《基于GPU的并行计算及CUDA编程》2010春季培训通知
(第一轮)
中科院超级计算中心、中科院研究生院、NVIDIA公司、北京金商祺公司拟于2010年3月31日—4月2日联合举办 “基于GPU的并行计算及CUDA编程”春季培训班。
具体通知如下:
l 培训对象:从事GPU应用研究的相关科研院所及高校老师和硕博研究生及相关企业工程师。
l 培训目的:通过理论与实践相结合的培训,提高学员对GPU并行计算方法及CUDA编程技术的理解和掌握,促进GPU加速技术的普及和应用。
l 培训时间:2010年3月31日-4月2日 9:00-17:00
l 培训地点:中科院计算机网络信息中心507会议室
(注:培训教室提供无线网络环境,如需上机可自带笔记本电脑)
详细地址:北京市海淀区中关村南四街四号中科院软件园区2号楼
l 培训费用:包含注册费、资料费、上机费等
科学院内学员:150元/人
院外高校学员:200元/人
企事业单位学员:500元/人
l 食宿安排:学员自理
l 报名方式:
按照报名回执表的要求填写各项内容,然后发邮件到service@sccas.cn ,我们将在一个工作日之内给予回复。名额有限,报名从速。
联系人:柴芳姣,联系电话:010-58812166
l 报名截止日期:2010年3月30日17时
l 培训内容及课程安排:
时间 |
课程安排 |
Day 1 |
Section 1: Introduction The emergence of large-scale applications and the demand of high performance computing Brief introduction of parallel computing platforms and parallel computing models Architecture of GPU CUDA as a programming model for many-core systems Difference between multi-threaded CPU computing and multi-threaded GPU computing Success stories: brief description of CUDA applications in various domains CUDA Programming Examples |
Section 2: CUDA Programming Model Parallel Computing Principles Execution model: kernels, threads, blocks, and grids Memory model: global, local, shared, and constant memory CUDA Basics An example: matrix multiplication CUDA Toolkit | |
Day 2 |
Section 3: CUDA Threads & Storage Model Programming using global memory, shared memory Threads Warp Resource allocation Control flow |
Section 4: Performance Optimization Part I: Optimization strategies Memory coalescing Memory bank conflicts Prefetching Loop unrolling Stream Texture Part II: Case studies | |
Day 3 |
Section 5: Parallel Computing Introduction of parallel computing Group exercise for understanding parallel data modal |
Section 6: CUDA Parallel Programming Model Understand Data Parallel Computing on CUDA Execution model: kernels, threads, blocks, and grids Memory model: global, local, shared, and constant memory An example: reduction | |
Section 7: CUDA Programing Advance Three ways Host to Device memory transaction Understand Warp & Global Memory coalescing Shared memory & Cache memory Half-warp & Control flow Understand the IO & computing Using register An example: Matrix Multiplication | |
Section 8:Application Case Research of CUDA-based acceleration of MS-Alignment for identification of post-translational modifications Introduction to OpenCL | |
Section 9:Q&A |
l 主讲教师介绍:
1. 刘莹,现任中国科学院研究生院信息科学与工程学院副教授,中国科学院虚拟经济与数据科学研究中心副教授,硕士生导师。研究兴趣为海量数据的秉性和分布式数据挖掘及数据流挖掘。具有丰富的GPU并行计算及CUDA编程经验。曾于2009年中科院研究生院春季、秋季学期两次开设《高性能计算的新发展—基于GPU的并行计算机CUDA编程》课程。
2. 赵开勇 ,浪潮公司高性能计算应用顾问。现读于香港浸会大学计算机系,博士研究生,具有较强的开发和应用能力。2008年至今,作为CSDN高性能版和CUDA版 (大版主),发表多篇技术文章,解答众多技术疑问。
3. 翟艳堂,中科院超级计算中心在读研究生,一直从事基于CUDA的蛋白质翻译后修饰鉴定加速研究。2009年8月在NVIDIA CUDA校园程序设计大赛中以《稀疏矩阵与矢量乘积运算》获得命题赛第一名。
4. 李森,中科院超级计算中心在读研究生,主要从事并行化程序设计,程序性能优化和GPU通用计算。目前从事流体GPU并行计算方面工作。热衷于多核openmp多机MPI编程和硬件体系结构研究。
报名回执表
----------------------------------------------------------------------------------------------------------------------
*各个字段都是必填项,请正确填写,谢谢!
学员基本信息表
姓名 |
单位 |
应用方向 |
联系电话 |
|
备注 |
市内乘车线路
1、机场乘车线路:乘坐民航班车(首都机场—中关村)终点(即四环保福寺桥)下车,换乘641或619到海淀交通支队站下车;
2、北京西客站乘车线路:乘坐319到海淀交通支队站下车;
3、北京站乘车线路:乘坐地铁2号线到西直门站,换乘城铁13号线到知春路站下车。
附近公交站:海淀交通支队、知春里东站
住宿推荐
招待所名称 |
联系电话 |
位置说明 |
备注 |
物科宾馆 |
010-82649482 |
中关村南三街8号(中科院物理所院内) |
宾馆旅店需要提前预订;在中关村教学大楼北对面,步行时间在15分钟之内。 |
天创宾馆 |
010-51192000 |
中关村南一条甲1号 |
宾馆旅店需要提前预订;在中关村教学大楼南对面,步行时间在10分钟之内。 |
康拓宾馆 |
010-68378288 010-62634975 |
中关村南一条甲4号 |
宾馆旅店需要提前预订;在中关村教学大楼南对面,步行时间在10分钟之内。 |
中科院空间会议中心 |
010-62582916 |
中关村南二条甲1号 |
宾馆旅店需要提前预订;在青年公寓南面,步行时间在8分钟之内。 |
青年公寓2号楼地下招待所 |
010-82680799 |
中关村东路80号(中科院研究生院青年公寓) |
宾馆旅店需要提前预订 |