영어로 쏼라쏼라 해대는 바람에 프리젠테이션 내용은 이해불가 -_-
하지만 아래 내용만큼은 중요한 의미를 포함!

소프트웨어와 하드웨어의 추상화 과정은 다음과 같다.
Grid는 Device 이며, 한번에 하나의 Kernel 만을 (다르게 말하면 Grid를) 실행 할 수 있다.
   다르게 말하자면, 한번에 최대한 많은 블럭과 쓰레드를 사용하는 것이 시간효용면에서 유리해진다.
Thread Block은 Multiprocessor 이며,
   물리적 프로세서이므로 하나의 메모리를 공유한다(Shared Memory)
   그리고 다른 물리적 프로세서와는 메모리를 공유하지 못한다.
Thread는 Thread Processor 이며, 다른 자료에서 굳이 비유하자면 ALU 이다.

그런데.. Multi GPU 상황(그러니까 SLI를 사용하지 않는 다중 GPU)이라면
Grid를 동시에 여러개 구성해서 돌릴수도 있다는 의미일려나?

Gretech Corporation | GomPlayer 2, 1, 29, 5045 (KOR) | 2011:01:05 23:32:40

Gretech Corporation | GomPlayer 2, 1, 26, 5027 (KOR) | 2011:01:05 21:45:47

[링크 : http://http.download.nvidia.com/developer/cuda/podcasts/CUDA_Programming_Model_Overview.m4v]
2011/01/05 - [Programming/CUDA / openCL] - CUDA training

Posted by 구차니
TAG

댓글을 달아 주세요