Programming/openCL & CUDA2011. 1. 2. 21:57
예전에 설치할때는 3.2는 RC(Release Candidate) 여서 3.1을 설치했었는데
지난 2010년 12월 22일에 3.2가 정식으로 나왔다.

결론은 빨라진게 대부분이고, H.264 인코딩/디코딩 라이브러리가 추가 되었다고 한다.

Last Updated: 12 / 22 / 2010

CUDA Toolkit 3.2 (November 2010)

For older releases, see the CUDA Toolkit Release Archive

 

Release Highlights

New and Improved CUDA Libraries

  • CUBLAS performance improved 50% to 300% on Fermi architecture GPUs, for matrix multiplication of all datatypes and transpose variations
  • CUFFT performance tuned for radix-3, -5, and -7 transform sizes on Fermi architecture GPUs, now 2x to 10x faster than MKL
  • New CUSPARSE library of GPU-accelerated sparse matrix routines for sparse/sparse and dense/sparse operations delivers 5x to 30x faster performance than MKL
  • New CURAND library of GPU-accelerated random number generation (RNG) routines, supporting Sobol quasi-random and XORWOW pseudo-random routines at 10x to 20x faster than similar routines in MKL
  • H.264 encode/decode libraries now included in the CUDA Toolkit

[링크 : http://developer.nvidia.com/object/cuda_3_2_downloads.html]

'Programming > openCL & CUDA' 카테고리의 다른 글

CUDA training  (0) 2011.01.05
Visual Studio 2008 에서 CUDA 프로젝트 만들기  (2) 2011.01.04
deviceQuery on 8600GT 512MB + CUDA 하드웨어 구조  (0) 2011.01.02
CUDA on Linux  (0) 2010.12.07
CUDA 예제 컴파일시 오류  (0) 2010.12.05
Posted by 구차니
Programming/openCL & CUDA2011. 1. 2. 21:51
deviceQuery 예문은 말그대로 장치에 질의의 던져 어떤 스펙인지
몇개의 thread가 존재하는지를 파악하는 프로그램이다.

아무튼 NVIDIA_CUDA_C_ProgrammingGuide.pdf 문서를 보면 아래의 내용이 나오니 참고를 해서 보자면,


Geforce 8800GT(이하 8800GT)는 14개의 멀티 프로세서를 가졌고 112개의 코어를 지녔다.
Grid는 Block을 포함하고, Block은 Thread를 포함한다.

단순 계산으로는 하나의 프로세서별로 8개의 코어가 존재하며
멀티프로세서는 14개 코어는 총 112개가 존재한다.

그리드(Grid)는 블럭의 2차원 배열로 존재하고,
블럭(Block)은 쓰레드의 2차원 배열로 존재한다.
쓰레드(Thread)는 일을하는 최소단위이다.

한번에 묶이는 최소 쓰레드의 숫자(Warp size)는 32개 이며
하나의 블럭으로 묶을수 있는 최대 쓰레드는 512개 이다.

블럭의 최대 차원은 3차원 512x512x64 이며
그리드의 최대 차원은 2차원 65535x65535x1 이다.

라고 이해하면 되려나?

A multithreaded program is partitioned into blocks of threads that execute independently from each
other, so that a GPU with more cores will automatically execute the program in less time than a GPU
with fewer cores.
=> 멀티쓰레드화된 프로그램은 서로 독립적으로 실행되는 쓰레드의 블럭으로 나누어지며, 그러한 이유로 더욱 많은 코어를 포함하는 CPU는 적은 코어를 지닌 GPU보다 짧은 시간에 프로그램을 실행할 수 있다.

Host는 일반적인 CPU 환경이고, Device는 GPU 환경이다.
컴파일시에 Device 코드만 nvcc에서 처리하고, 나머지는 일반적인 컴파일러에서 처리하는 이원화된 구조이다.

아래는 커널이다. 디바이스 코드를 생성하는 부분이며
MatAdd 함수는 __global__ 선언을 앞에 붙여 device 코드임을 명시해야 한다.
MatAdd<<<numBlocks, threadsPerBlock>>>(A, B, C);
그리고 커널 안에는 int형이나 dim3 형으로 선언이 되어야 한다.

아래는 dim3 형으로 선언된 녀석으로,
dim3 threadsPerBlock(16, 16);
dim3 numBlocks(N / threadsPerBlock.x, N / threadsPerBlock.y);
MatAdd<<<numBlocks, threadsPerBlock>>>(A, B, C);
블럭당 쓰레디의 크기를 16x16 thread로, 그리드를 N/16개로 분할하는 예제이다.

물론 2차원은 1차원과 같이 사용이 가능하므로 int형도 허용하는 듯?

B.15  Execution Configuration
Any call to a __global__ function must specify the execution configuration for that call. The execution configuration defines the dimension of the grid and blocks that will be used to execute the function on the device, as well as the associated stream (see Section 3.3.10.1 for a description of streams).
When using the driver API, the execution configuration is specified through a series of driver function calls as detailed in Section 3.3.3.
When using the runtime API (Section 3.2), the execution configuration is specified by inserting an expression of the form <<< Dg, Db, Ns, S >>> between the function name and the parenthesized argument list, where:
  Dg is of type dim3 (see Section B.3.2) and specifies the dimension and size of the grid,
     such that Dg.x * Dg.y equals the number of blocks being launched; Dg.z must be equal to 1;
  Db is of type dim3 (see Section B.3.2) and specifies the dimension and size of each block,
     such that Db.x * Db.y * Db.z equals the number of threads per block;
  Ns is of type size_t and specifies the number of bytes in shared memory that is dynamically allocated per block for this call in addition to the statically allocated memory; this dynamically allocated memory is used by any of the variables declared as an external array as mentioned in Section B.2.3; Ns is an optional argument which defaults to 0;
  S is of type cudaStream_t and specifies the associated stream; S is an optional argument which defaults to 0.
As an example, a function declared as
__global__ void Func(float* parameter);
must be called like this:
Func<<< Dg, Db, Ns >>>(parameter);
The arguments to the execution configuration are evaluated before the actual function arguments and like the function arguments, are currently passed via shared memory to the device. The function call will fail if Dg or Db are greater than the maximum sizes allowed for the device as specified in Appendix G, or if Ns is greater than the maximum
amount of shared memory available on the device, minus the amount of shared memory required for static allocation, functions arguments (for devices of compute capability 1.x), and execution configuration. 

아무튼 원래는 아래의 예제 내용을 분석하기 위한 내용인데
점점 미궁으로 빠지는 느낌 -_-

CUDA deviceQuery


OpenCL DeviceQuery

'Programming > openCL & CUDA' 카테고리의 다른 글

Visual Studio 2008 에서 CUDA 프로젝트 만들기  (2) 2011.01.04
CUDA Toolkit 3.2  (0) 2011.01.02
CUDA on Linux  (0) 2010.12.07
CUDA 예제 컴파일시 오류  (0) 2010.12.05
CUDA / Visual Studio 2008  (2) 2010.12.05
Posted by 구차니
Programming/openCL & CUDA2010. 12. 7. 23:49
헉헉 힘들게도 컴파일 했다 -_-




이녀석을 컴파일 하려면 험난한 과정을 거쳐야 한다 -_-
ldconfig는 libglut3를 설치한다면 아마도 생략가능할 듯?
(trigger로 ldconfig를 수행한다)
$ sudo vi /etc/ld.so.conf/libcuda.conf
/usr/local/cuda/lib

$ sudo ldconfig
$ sudo apt-get install libglut3

$ sudo ln -s /usr/lib/libglut.so.3 /usr/lib/libglut.so
$ sudo ln -s /usr/lib/libGLU.so.1 /usr/lib/libGLU.so
$ sudo ln -s /usr/lib/libX11.so.6 /usr/lib/libX11.so
$ sudo ln -s /usr/lib/libXi.so.6 /usr/lib/libXi.so
$ sudo ln -s /usr/lib/libXmu.so.6 /usr/lib/libXmu.so

대부분이 so 의 버전에 대한 심볼릭 링크 문제였다.

2010/12/05 - [Programming/CUDA / openCL] - CUDA 예제 컴파일시 오류
2010/11/02 - [Programming/CUDA / openCL] - CUDA 예제파일 실행결과 + SLI

'Programming > openCL & CUDA' 카테고리의 다른 글

CUDA Toolkit 3.2  (0) 2011.01.02
deviceQuery on 8600GT 512MB + CUDA 하드웨어 구조  (0) 2011.01.02
CUDA 예제 컴파일시 오류  (0) 2010.12.05
CUDA / Visual Studio 2008  (2) 2010.12.05
CUDA + Visual Studio 2005  (0) 2010.12.01
Posted by 구차니
Programming/openCL & CUDA2010. 12. 5. 19:36
Linux에서 CUDA를 설치하고 예제를 컴파일 하려고 하니 다음과 같은 오류가 난다.

~/NVIDIA_GPU_Computing_SDK/C/src/deviceQuery$ make
/usr/bin/ld: cannot find -lcutil_i386
collect2: ld returned 1 exit status
make: *** [../../bin/linux/release/deviceQuery] 오류 1

경로설정이 잘못되었나 했는데, gcc 호환성으로 인해 구버전을 쓰라던 이야기가 떠오르게 하는 아래의 내용 -_-
NVIDIA Cuda ¶

Before running the Makefile, you will need to install gcc 4.3 and g++ 4.3. This is because the NVIDIA Cuda SDK 3.0 has not yet worked with gcc 4.0 and g++ 4.0. There should be no issue compiling cuda files with gcc 4.3 and g++ 4.3 on newer NVIDIA Cuda SDK versions. For a successful compilation, please follow these steps:

...

3) Create a directory and create symlinks to gcc-4.3/g++-4.3

$ mkdir mygcc
$ cd mygcc
$ ln -s $(which g++-4.3) g++
$ ln -s $(which gcc-4.3) gcc

[링크 : http://boinc.berkeley.edu/trac/wiki/GPUApp]


$ gcc --version
gcc (Ubuntu 4.4.3-4ubuntu5) 4.4.3
Copyright (C) 2009 Free Software Foundation, Inc.
This is free software; see the source for copying conditions.  There is NO
warranty; not even for MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.

$ g++ --version
g++ (Ubuntu 4.4.3-4ubuntu5) 4.4.3
Copyright (C) 2009 Free Software Foundation, Inc.
This is free software; see the source for copying conditions.  There is NO
warranty; not even for MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.


$ whereis g++
whwg++: /usr/bin/g++ /usr/share/man/man1/g++.1.gz

$ whereis gcc
gcc: /usr/bin/gcc /usr/lib/gcc /usr/share/man/man1/gcc.1.gz

없는건 아닌데 왜 안될까..

일단.. 어거지로
~/NVIDIA_GPU_Computing_SDK/C 에서
make를 하니 어느정도 컴파일을 하는데 GLU 어쩌구 하면서 중단 OTL


libcudart.so.3: cannot open shared object file: No such file or directory

요런 에러가 발생하면
단순하게 LD_LIBRARY_PATH를 정해주고, sudo ldconfig 를 해서는 해결이 되지 않았다.
/etc/ld.so.conf.d/ 에 libcuda.conf를 만들고 cuda 설치 경로인
/usr/local/cuda/lib
를 넣어주고 나서 sudo ldconfig를 해야 제대로 설정이 되었다.


2010.12.07 추가
아래의 경로에서 libcutil_i386.a 발견! (별 의미는 없음)
~/NVIDIA_GPU_Computing_SDK/C/lib$ ll
합계 224
drwxr-xr-x 2 minimonk minimonk   4096 2010-12-05 23:58 ./
drwxr-xr-x 9 minimonk minimonk   4096 2010-12-05 23:58 ../
-rw-r--r-- 1 minimonk minimonk 142978 2010-12-05 23:58 libcutil_i386.a
-rw-r--r-- 1 minimonk minimonk  30512 2010-12-05 23:58 libparamgl_i386.a
-rw-r--r-- 1 minimonk minimonk  43034 2010-12-05 23:58 librendercheckgl_i386.a

~/NVIDIA_GPU_Computing_SDK/C/src/marchingCubes$ make
/usr/bin/ld: cannot find -lGLU
collect2: ld returned 1 exit status
make: *** [../../bin/linux/release/marchingCubes] 오류 1

$ sudo find / -name "*GLU*"
/usr/lib/libGLU.so.1
/usr/lib/libGLU.so.1.3.070701

$ sudo ln -s /usr/lib/libGLU.so.1 /usr/lib/libGLU.so

~/NVIDIA_GPU_Computing_SDK/C/src/marchingCubes$ make
/usr/bin/ld: cannot find -lX11
collect2: ld returned 1 exit status
make[1]: *** [../../bin/linux/release/marchingCubes] 오류 1

$ sudo ln -s /usr/lib/libX11.so.6 /usr/lib/libX11.so
$ sudo ln -s /usr/lib/libXi.so.6 /usr/lib/libXi.so
$ sudo ln -s /usr/lib/libXmu.so.6 /usr/lib/libXmu.so

/usr/bin/ld: cannot find -lglut
collect2: ld returned 1 exit status
make[1]: *** [../../bin/linux/release/marchingCubes] 오류 1

$ sudo apt-get install libglut3
$ sudo ln -s /usr/lib/libglut.so.3 /usr/lib/libglut.so

우분투가 웬수인가.. 어느넘이 웬수인가?

'Programming > openCL & CUDA' 카테고리의 다른 글

deviceQuery on 8600GT 512MB + CUDA 하드웨어 구조  (0) 2011.01.02
CUDA on Linux  (0) 2010.12.07
CUDA / Visual Studio 2008  (2) 2010.12.05
CUDA + Visual Studio 2005  (0) 2010.12.01
nvcc for windows 제약사항?  (0) 2010.11.14
Posted by 구차니
Programming/openCL & CUDA2010. 12. 5. 13:31
Visual Studio 2008을 설치하고
Windows에서 CUDA예제를 컴파일했는데 실행파일이 없다!!!!

그래서 속성페이지를 뒤지는.. VC6만 쓰다보니 이거 도무지 어디 짱박힌지 알수가 없네?
아무튼, "구성 속성 - 링커" 에서 출력 파일이라는 이름으로 되어있다.
(젠장 영문버전을 써야하나? 한글 익숙하지 않아 ㅠ.ㅠ)

'Programming > openCL & CUDA' 카테고리의 다른 글

CUDA on Linux  (0) 2010.12.07
CUDA 예제 컴파일시 오류  (0) 2010.12.05
CUDA + Visual Studio 2005  (0) 2010.12.01
nvcc for windows 제약사항?  (0) 2010.11.14
PTX - Parallel Thread Execution  (0) 2010.11.11
Posted by 구차니
Programming/openCL & CUDA2010. 12. 1. 21:40
집에 있는 어둠의 Visual Studio 버전이 2003 뿐이길래 일단 설치


하지만, 아래와 같은 에러가 나면서 실행이 안된다.




위키를 검색해보니

Version history

Prior Visual Studio Version 4.0 there were Visual Basic 3, Visual C++, Visual FoxPro and Source Safe as separate products.

Product nameInternal
version
.NET Framework
version
Release date
Visual Studio 4.0 N/A Spring 1995
Visual Studio 97 5.0 N/A 1997
Visual Studio 6.0 6.0 N/A 1998-06
Visual Studio .NET (2002) 7.0 1.0 2002-02-13
Visual Studio .NET 2003 7.1 1.1 2003-04-24
Visual Studio 2005 8.0 2.0 2005-11-07
Visual Studio 2008 9.0 3.5 2007-11-19
Visual Studio 2010 10.0 4.0 2010-04-12
[링크 : http://en.wikipedia.org/wiki/Microsoft_Visual_Studio]

Visual Studio 2003의 내부 버전은 7.1 이고
Visual Studio 2005가 내부 버전 8.0 이다.

간단하게 말하자면 비싼 시간을 들여...
CUDA는 Visual Studio 2005 이상을 설치해야 한다는 사실을 깨달은 하루 -_-
Posted by 구차니
Programming/openCL & CUDA2010. 11. 14. 13:29
NVCC는 NV(Nvidia)CC(C Compiler) 인데, 구조적으로 아래와 같은 컴파일 과정을 거친다.
호스트 코드는 일반적인 C 컴파일러(예를 들면 비쥬얼 스튜디오 커맨드 라인이나 gcc)로 컴파일을 떠넘기고
nvcc는 머신코드(CUDA device용 PTX)를 생성한다.

즉, 어떠한 코드를 컴파일 하는데 있어 nvcc만으로는 독립적으로 컴파일이 진행될수 없다.
그런 이유로 윈도우에서는 Visual Studio에 빌붙고, 리눅스에서는 gcc에 빌붙는다.



nvcc의 목적에 나온 내용으로, CUDA가 아닌 내용은 범용 C 컴파일러로 투척(forward)한다고 되어있고
윈도우에서는 MS Visual Studio의 cl을 실행(instance)하여 사용한다고 되어있다.
Purpose of nvcc

This compilation trajectory involves several splitting, compilation, preprocessing,
and merging steps for each CUDA source file, and several of these steps are subtly
different for different modes of CUDA compilation (such as compilation for device
emulation, or the generation of device code repositories).  It is the purpose of the
CUDA compiler driver nvcc to hide the intricate details of CUDA compilation from
developers.  Additionally, instead of being a specific CUDA compilation driver,
nvcc mimics the behavior of the GNU compiler gcc: it accepts a range of
conventional compiler options, such as for defining macros and include/library
paths, and for steering the compilation process. All non-CUDA compilation steps
are forwarded to a general purpose C compiler that is supported by nvcc, and on
Windos platforms, where this compiler is an instance of the Microsoft Visual Studio
compiler, nvcc will translate its options into appropriate ‘cl’ command syntax. This
extended behavior plus ‘cl’ option translation is intended for  support of portable
application build and make scripts across Linux and Windows platforms.

그리고 내 컴퓨터에는 일단..
Visual Studio 6.0이 설치되어 있고, 개인적인 .net 거부반응으로 인해 2002나 2008 이런 녀석들은 설치되어 있지 않다.

아무튼, host compiler에서 Windows platform은
           "Microsoft Visual Studio compiler, cl" 이라고 되어 있는디..
           VS2002 부터 지원하는지는 모르겠지만 아무튼, cl은 command line이라고
           clcc.exe 같은 녀석으로 지원하는 커맨드 라인 MSVS 컴파일러 이다.
           혹시나 openCL인줄 알았더니 그것도 아니네 -_-

그리고 Supported build enviroment 에서는 Windows + MinGW shell이 존재한다.
gcc가 아니다 shell 이다 -_- 즉, 죽어도 컴파일러는 Visual Studio를 설치할 수 밖에 없다(윈도우에서는)

아래 13페이지와

14페이지의 내용을 둘러보고

옵션들을 조정해 보아도, VS가 없으면 안된다.(VS6.0도 안된다)

[링크 : http://moss.csc.ncsu.edu/~mueller/cluster/nvidia/2.0/nvcc_2.0.pdf]

'Programming > openCL & CUDA' 카테고리의 다른 글

CUDA / Visual Studio 2008  (2) 2010.12.05
CUDA + Visual Studio 2005  (0) 2010.12.01
PTX - Parallel Thread Execution  (0) 2010.11.11
ATI Stream / OpenCL 을 Nvidia에서 돌려보았더니!  (0) 2010.11.06
ATI STREAM - OpenCL 문서들  (0) 2010.11.04
Posted by 구차니
Programming/openCL & CUDA2010. 11. 11. 09:06
CUDA 문서를 읽다가 PTX라는 말이 자주 언급되는데
문제는 이 용어에 대한 내용은 영 다른 문서(PTXISA.pdf)에 짱박혀 있다는 것 -_-


아무튼 부랴부랴 검색을 해보니
일종의 CUDA 장치용 어셈블리 언어의 개념이고
대량의 레지스터를(아무래도 쓰레드별로 존재할테니) 매핑하기 위한
pseudo register 라는 개념을 사용하과 있다고 한다.

확장자이기도 하고, 언어이기도 하고..

굳이 비유하자면
*.c를 어셈블 해서 *.S가 나오고 그걸 컴파일 해서 *.o 가 나오듯
*.cu를 어셈블 해서 호스트 코드는 *.S로 Cuda 코드는 *.ptx로 나오는 식일려나?

[링크 : http://en.wikipedia.org/wiki/Parallel_Thread_Execution]

'Programming > openCL & CUDA' 카테고리의 다른 글

CUDA + Visual Studio 2005  (0) 2010.12.01
nvcc for windows 제약사항?  (0) 2010.11.14
ATI Stream / OpenCL 을 Nvidia에서 돌려보았더니!  (0) 2010.11.06
ATI STREAM - OpenCL 문서들  (0) 2010.11.04
ATI Stream SDK  (0) 2010.11.03
Posted by 구차니
Programming/openCL & CUDA2010. 11. 6. 22:42
소쿨한 에러
C:\> ConstantBandwidth.exe
Error: clCreateContextFromType failed. Error code : CL_DEVICE_NOT_FOUND

컴파일러가 ATI 쪽만 인식하도록 되어있는지, nVidia의 GPU를 제대로 활용하지는 못한다.
아니면 예제 프로그램들이 openCL을 이용하기는 하지만, nVidia의 openCL과는 달라서 그럴려나?





'Programming > openCL & CUDA' 카테고리의 다른 글

nvcc for windows 제약사항?  (0) 2010.11.14
PTX - Parallel Thread Execution  (0) 2010.11.11
ATI STREAM - OpenCL 문서들  (0) 2010.11.04
ATI Stream SDK  (0) 2010.11.03
GPU Gems 3  (2) 2010.11.02
Posted by 구차니
Programming/openCL & CUDA2010. 11. 4. 18:03

'Programming > openCL & CUDA' 카테고리의 다른 글

PTX - Parallel Thread Execution  (0) 2010.11.11
ATI Stream / OpenCL 을 Nvidia에서 돌려보았더니!  (0) 2010.11.06
ATI Stream SDK  (0) 2010.11.03
GPU Gems 3  (2) 2010.11.02
CUDA 예제파일 실행결과 + SLI  (0) 2010.11.02
Posted by 구차니