• 북마크
  • 추가메뉴
어디로 앱에서 쉽고 간편하게!
애플 중고 거래 전문 플랫폼
오늘 하루 보지 않기
KMUG 케이머그

소프트웨어

[App 개발] CUDA, Supercomputing for the Masses (5)

본문

- 공유 메모리의 이해 (2)

지난 4회에서 실행 모델과 커널 실행 환경 설정이 레지스터의 갯수와 공유 메모리같은 지역 멀티프로세서 자원에 영향을 미치는지 살펴보았습니다. 이번에는 메모리 성능과 reverseArray_multiblock_fast.cu 내에서 공유 메모리 사용에 대해 살펴보겠습니다.

- CUDA 메모리 성능

지역 메모리와 광역 메모리에는 캐시가 설정되어 있지 않아서, 지역 혹은 광역 메모리 억세스 시 반드시 메모리 참조가 발생합니다. 그렇다면 각각의 메모리 종류에 따른 억세스에 드는 시간은 어느 정도일까요?

“워프” 에서 메모리 명령 하나가 수행되려면 멀티프로세서 네 클럭 사이클이 소요됩니다. 지역 혹은 광역 메모리 참조에는 400 에서 600 클럭 사이클 분량의 메모리 레이턴시가 초래됩니다. 예를 들어 아래에 있는 짜투리 코드를 실행하기 위해서는 광역 메모리에서 읽기 명령 네 클럭, 공유 메모리로 쓰기 명령 네 클럭, 그리고 광역 메모리로부터 부동소숫점 값을 읽어들이는 데 400 에서 600 클럭 사이클이 소요됩니다. 참고로 __device__ 변수 지정자는 해당 변수가 광역 메모리에 위치하게끔 지정합니다. (그 외의 변수 특성은 CUDA 프로그래밍 가이드 4.2.2.1 장을 참조하세요.) __device__ 형으로 지정된 변수는 호스트 코드에서 참조할 수 없습니다.

__shared__ float shared[32];
__device__ float device[32];
shared[threadIdx.x] = device[threadIdx.x];

억세스에 걸리는 시간이 100 에서 150 배 차이가 나는 광역 메모리 억세스를 최소화하고 지역 멀티프로세서 메모리 내 데이터를 재사용하도록 프로그램을 짜야만 합니다. CUDA 에는 쓰레드 스케쥴러가 잘 되어 있어서 광역 메모리 억세스 지연은 실행 환경 설정에서 큰 블럭을 할당함으로써 숨기고 커널 내에서는 레지스터, __shared__, __constant__ 형의 변수를 되도록 사용합니다.

공유 메모리는 칩 안에 내장되어 있어서 광역 메모리보다 훨씬 빠르고 최적화 기능으로 뱅크 충돌을 방지합니다. 어떤 문서에서는 공유 메모리가 레지스터 억세스만큼 빠르다고 언급할 만큼 공유 메모리 속도는 빠릅니다. 하지만 최근 CUBLAS 나 CUFFT 의 속도 향상은 공유 메모리를 덜 사용하게끔 해서 얻어진 것입니다. 그러니 되도록이면 레지스터를 이용해 주세요. CUDA 공유 메모리는 동일한 크기의 메모리 모듈인 메모리 뱅크로 나뉘어집니다. 메모리 뱅크는 32비트 크기의 데이터(정수나 단밀도 부동소숫점)를 연달아 가지고 있어서 연속적인 쓰레드의 연속적인 배열 억세스에 빠른 속도를 보입니다. 뱅크 충돌은 메모리 억세스가 동일한 뱅크에(동일한 어드레스 혹은 동일한 뱅크에 매핑된 다른 어드레스) 다발적으로 발생할 경우 일어납니다. 이럴 경우 하드웨어는 메모리 명령을 순차적으로 처리하게끔 하여, 모든 메모리 참조가 끝날 때까지 쓰레드를 강제로 대기시킵니다. 모든 쓰레드가 동일한 공유 메모리 어드레스를 읽어들여야 한다면 브로드캐스트 구조가 자동으로 실행되어 순차 실행을 방지합니다. 공유 메모리 브로드캐스트는 다수의 쓰레드가 동시에 데이터를 읽어들이는 효율적인 방법입니다. 공유 메모리를 사용해야 할 때 이 기능을 활용하는 것이 좋습니다.

향후 뱅크 충돌 문제에 대해 깊이 다루어 보겠습니다. 지금은 reverseArray_multiblock_fast.cu 에서는 연속적인 쓰레드가 연속적인 값을 참조하므로 뱅크 충돌이 없다고 간주합니다.

A quick summary of local multiprocessor memory types with read/write capability follows:

* Registers:
o The fastest form of memory on the multi-processor.
o Is only accessible by the thread.
o Has the lifetime of the thread.
* Shared Memory:
o Can be as fast as a register when there are no bank conflicts or when reading from the same address.
o Accessible by any thread of the block from which it was created.
o Has the lifetime of the block.
* Global memory:
o Potentially 150x slower than register or shared memory -- watch out for uncoalesced reads and writes which will be discussed in the next column.
o Accessible from either the host or device.
o Has the lifetime of the application.
* Local memory:
o A potential performance gotcha, it resides in global memory and can be 150x slower than register or shared memory.
o Is only accessible by the thread.
o Has the lifetime of the thread.

지역 멀티프로세서 메모리의 종류와 읽기/쓰기 성능에 대한 간추린 내용입니다.
* 레지스터:
- 멀티프로세서에서 가장 빠른 메모리
- 해당 쓰레드에서만 억세스 가능
- 해당 쓰레드 내에서 데이터 유지
* 공유 메모리:
- 뱅크 충돌이 없을 시 레지스터만큼 빠른 속도
- 설정된 블럭 내 쓰레드는 모두 억세스 가능
- 블럭 내 데이터 유지
* 광역 메모리:
- 레지스터나 공유 메모리보다 대략 150 배 느림 – 비 연동 억세스시 주의, 다음 장에서 다룰 예정
- 호스트와 장치 모두 억세스 가능
- 응용프로그램 내 데이터 유지
* 지역 메모리:
- 속도 저하의 주범, 광역 메모리 내에 존재하므로 레지스터나 공유 메모리보다 대략 150배 느림
- 해당 쓰레드에서만 억세스 가능
- 쓰레드 내 데이터 유지

- 공유 메모리 사용시 주의할 점

* 성능 저하를 일으키는 공유 메모리 뱅크 충돌 주의
* 커널 내에서 동적으로 할당되는 변수 시작위치는 동일합니다. 따라서 여러 개의 동적 공유 메모리 배열을 사용하려면 수동으로 오프셋을 지정해야 합니다. 예를 들어, 배열 a 와 b 를 공유 메모리에 동적 할당하려면 다음과 같이 해 주어야 합니다.

__global__ void kernel(int aSize)
{
extern __shared__ float sData[];
float *a, *b;

a = sData;
b = &a[aSize];

- 레지스터/지역 메모리 사용시 주의할 점

* 경우에 따라 레지스터 메모리가 지역 메모리에 설정될 수도 있으며, 이 경우 속도 저하의 원인이 됩니다. nvcc 에 –ptxas-options=-v 옵션으로 컴파일한 후 ptx 어셈블리 코드 혹은 출력에서 lmem 을 살펴보세요.
* 배열 내용이 컴파일시 상수 인덱스로 참조되면 배열은 레지스터에 상주할 수 있으나 변수 인덱스로 참조되면 레지스터에 상주할 수 없습니다. 개발시 배열 내용을 느린 광역 메모리 대신 레지스터 메모리에 상주토록 하기 위하여 루프 언롤링 기법을 사용해야 하는 어려움이 있습니다. 하지만 언롤링을 사용하면 레지스터 사용 빈도를 늘리게 되므로, 변수들을 지역 메모리에 저장해야 하고, 결국 루프 언롤링의 이득을 상쇄시켜 버립니다. nvcc 에 –maxrregcount=value 옵션을 넣어줌으로써 컴파일러가 더 많은 레지스터를 사용하게 할 수 있습니다. (최대 레지스터 카운트는 128 입니다.) 레지스터 사용과 쓰레드 생성에는 트레이드 오프 관계가 있어서, 메모리 속도 지연 감소를 방해합니다. 프로그램 구조에 따라서 이 옵션은 자원 부족을 일으켜 커널을 실행하지 못하게 되기도 합니다.

- 공유 메모리 커널

reverseArray_multiblock.cu 와 reverseArray_multiblock_fast.au 모두 동일한 작업을 수행합니다. 정수값 [0..dimA-1] 을 가지는 1차원 정수 배열 h_a 를 만듭니다. 배열은 장치 내 cudaMemory 로 옮겨지고 호스트는 reverseArrayBlock 커널을 실행하여 배열 내 값의 위치를 뒤바꿉니다. cudaMemory 는 호스트와 장치간 데이터 교환에 사용되어 장치가 정확한 값 ([dimA-1..0]) 을 만들었는지 검사를 수행합니다.
차이점은 reverseArray_multiblock_fast.cu 는 커널 속도 향상을 위하여 공유 메모리를 사용하지만, reverseArray_multiblock.cu 는 모두 전역 메모리만 사용합니다. 두 프로그램의 실행속도를 측정해서 성능 차이를 확인해 보세요. 그리고, reverseArray_multiblock.cu 는 전역 메모리를 비효율적으로 사용합니다. 이후에 CUDA 프로파일러를 이용해서 성능을 진단하고 고치는 것을 다룰 것이며, 새로운 10 종의 아키텍쳐가 많은 경우 이런 최적화 필요성을 줄여줌으로써 성능을 향상시키는지 알아볼 것입니다.

// includes, system
#include
#include

// Simple utility function to check for CUDA runtime errors
void checkCUDAError(const char* msg);

// Part 2 of 2: implement the fast kernel using shared memory
__global__ void reverseArrayBlock(int *d_out, int *d_in)
{
extern __shared__ int s_data[];

int inOffset = blockDim.x * blockIdx.x;
int in = inOffset + threadIdx.x;

// Load one element per thread from device memory and store it
// *in reversed order* into temporary shared memory
s_data[blockDim.x - 1 - threadIdx.x] = d_in[in];

// Block until all threads in the block have written their data to shared mem
__syncthreads();

// write the data from shared memory in forward order,
// but to the reversed block offset as before

int outOffset = blockDim.x * (gridDim.x - 1 - blockIdx.x);

int out = outOffset + threadIdx.x;
d_out[out] = s_data[threadIdx.x];
}

////////////////////////////////////////////////////////////////////
// Program main
////////////////////////////////////////////////////////////////////
int main( int argc, char** argv)
{
// pointer for host memory and size
int *h_a;
int dimA = 256 * 1024; // 256K elements (1MB total)

// pointer for device memory
int *d_b, *d_a;

// define grid and block size
int numThreadsPerBlock = 256;

// Compute number of blocks needed based on array size and desired block size
int numBlocks = dimA / numThreadsPerBlock;

// Part 1 of 2: Compute the number of bytes of shared memory needed
// This is used in the kernel invocation below
int sharedMemSize = numThreadsPerBlock * sizeof(int);

// allocate host and device memory
size_t memSize = numBlocks * numThreadsPerBlock * sizeof(int);
h_a = (int *) malloc(memSize);
cudaMalloc( (void **) &d_a, memSize );
cudaMalloc( (void **) &d_b, memSize );

// Initialize input array on host
for (int i = 0; i < dimA; ++i)
{
h_a[i] = i;
}

// Copy host array to device array
cudaMemcpy( d_a, h_a, memSize, cudaMemcpyHostToDevice );

// launch kernel
dim3 dimGrid(numBlocks);
dim3 dimBlock(numThreadsPerBlock);
reverseArrayBlock<<< dimGrid, dimBlock, sharedMemSize >>>( d_b, d_a );

// block until the device has completed
cudaThreadSynchronize();

// check if kernel execution generated an error
// Check for any CUDA errors
checkCUDAError("kernel invocation");

// device to host copy
cudaMemcpy( h_a, d_b, memSize, cudaMemcpyDeviceToHost );

// Check for any CUDA errors
checkCUDAError("memcpy");

// verify the data returned to the host is correct
for (int i = 0; i < dimA; i++)
{
assert(h_a[i] == dimA - 1 - i );
}

// free device memory
cudaFree(d_a);
cudaFree(d_b);

// free host memory
free(h_a);

// If the program makes it this far, then the results are correct and
// there are no run-time errors. Good work!
printf("Correct!
");

return 0;
}

void checkCUDAError(const char *msg)
{
cudaError_t err = cudaGetLastError();
if( cudaSuccess != err)
{
fprintf(stderr, "Cuda error: %s: %s.
", msg, cudaGetErrorString( err) );
exit(EXIT_FAILURE);
}
}

실행시 소요되는 공유 메모리를 결정하려면 호스트와 장치 코드에 약간의 설정이 필요합니다. 이번 예제에서, 커널 내 블럭당 필요한 공유 메모리 (바이트) 는 호스트에서의 실행 환경 설정의 세 번째 옵션 인수에 넣습니다. (호스트 쪽 설정은 만약 공유 메모리가 커널 실행시 지정될 때에만 필요합니다. 컴파일시 값이 고정될 때에는 호스트 쪽 설정이 필요 없습니다.) 기본적으로 실행 환경 설정에서는 공유 메모리가 필요없는 것으로 간주합니다. 예를 들어, arrayReversal_multiblock_fast.cu 의 호스트 코드에서 다음의 짜투리 코드는 블럭 내 쓰레드 갯수와 동일한 값을 가지는 정수형 배열을 공유 메모리에 할당합니다.

// Part 1 of 2: Compute the number of bytes of share memory needed
// This is used in the kernel invocation below
int sharedMemSize = numThreadsPerBlock * sizeof(int);

reverseArrayBlock 커널을 보면, 공유 메모리는 다음과 같이 정의됩니다.

extern __shared__ int s_data[];

Note that the size is not indicated in the kernel -- rather it is obtained from the host through the execution configuration.
Until the next column on profiling, I recommend looking at the reverseArray_multiblock.cu. Do you think there is a performance problem in accessing global memory? If you think there is a problem, try to fix it.

커널 내에서 배열 크기가 지정되지 않고, 실행 환경 설정으로 호스트에서 결정됩니다.

다음 편 profiling 을 들어갈 때까지, reverseArray_multiblock.cu 를 살펴보세요. 만약 전역 메모리 억세스에 속도 문제가 있다고 생각되시면 한 번 고쳐보도록 하세요.
0 0
로그인 후 추천 또는 비추천하실 수 있습니다.
포인트 228,692
가입일 :
2003-02-18 14:12:30
서명 :
미입력
자기소개 :
미입력

최신글이 없습니다.

최신글이 없습니다.

댓글목록 0

등록된 댓글이 없습니다.
전체 121 건 - 1 페이지
2007.01
27

[App 개발] OpenCV 1.0.0 Frameworks

wlee 님 뿐만 아니라 Mac 에서 이미지 프로세싱 관련 연구를 하시는 분들에게 유용한 툴이 될 듯 싶습니다. 좋은 라이브러리를 알게 되어 wlee 님께 감사말씀 드립니다. ^^ 물론 1.0.0 을 그대로 command-line 으로 컴파일해도…

2006.08
22

[App 개발] 마유라 는 한글이 잘 되는군요. ^^

InputStreamReader 의 속성을 SJIS 에서 EUC-KR 로 바꾸는 방법으로 미와 고스트는 안되는데 마유라 고스트는 잘 되는군요. 인텔 맥에서도 문제없이 돌아가고 있습니다. 영환님도 이미 컴파일 해보셨겠지만, 안되었으면 한 번 …

2005.12
19

[App 개발] Xcode 2.2 에서 카본 프로그램 만들자 (3)

이번에는 본격적으로 Quartz 의 Core Graphics 를 이용해서 그림을 그려 보겠습니다. 참고 자료로는 애플 홈페이지에서 다운로드 받으실 수 있는 Quartz 2D Programming Guide 입니다. 프로그램의 기본 구조는 이…

2005.12
17

[App 개발] Xcode 2.2 에서 카본 프로그램 만들자 (2)

윈도우 프로그래밍을 처음 공부한ㄴ 사람들이 한결같이 내놓는 불만은 "왜 이렇게 어렵냐" 라는 것입니다. 막말로, C 에서는 printf("Hello World\\n") ; 요거 하나만 하면 글을 볼 수 있는데, 윈도우에서는 글자 하나를 보…

2005.12
16

[App 개발] Xcode 2.2 에서 카본 프로그램 만들자 (1)

Xcode 새 버젼의 카본 어플리케이션 템플릿이 좀 더 친절해졌더군요. 한편, 지금까지 자기 고유의 이벤트 핸들러를 갖고 계시던 분들에게는 더 힘들어 졌더군요. ㅠㅠ 자 해 봅시다. 일단. Xcode 를 실행하고, File-&gt;N…

2009.10
22

[App 개발] GCD 예제

MacTech 10 월호에 게재된 GCD 예제를 번역하였습니다. 허락 없는 번역이므로 다른 곳에 퍼 가지 마세요. -_-; *** Grand Central Dispatch Grand Central Dispatch (GCD) 는 개발자들…

2009.09
24

[App 개발] OpenCL 프로그래밍 예제

개인 블로그에 차곡차곡 올리는 도중, 그래도 혹시나 쓸모가 있을 법한 아이를 하나 이곳에 분양하려 합니다. 아직 제 지식과 기술이 일천하여 완전히 최고 속도를 내지는 못하지만, 그래도 공부에는 도움이 될만한 소스가 아닐까 싶습니다. Bili…

2009.09
10

[App 개발] OpenCL 프로그래밍 도중 문제가 생기면...

2차원 Wavelet decomposition 루틴을 작성하기 위해 열심히 노력중에 있습니다. 아직 손에 익지 않은 기술이고, 예제가 많지 않은 기술이라, 매뉴얼 한 권에 의지하여 더듬더듬 나아가고 있습니다. 그런데 정말 신기한 현상을 보게 되었…

2009.08
27

[App 개발] CUDA, Supercomputing for the Masses (8)

- CUDA 와 라이브러리 사용 지난 회에서는 차세대 CUDA 하드웨어를 살펴보았습니다. 이번에는 하드웨어에서 소프트웨어로 주제를 약간 바꾸어서 CUDA 에서 라이브러리를 사용하는 것을 살펴보겠습니다. 최적화된 라이브러리는 응용프로그램의 성…

2009.08
26

[App 개발] CUDA, Supercomputing for the Masses (7)

- 차세대 CUDA 하드웨어 활용하기 6 장에서 CUDA 프로파일러를 이용하여 글로벌 메모리를 확인해 보았습니다. 이번에는 차세대 CUDA 하드웨어에 대해 살펴보려 합니다. CUDA 와 CUDA 지원 장치는 세대를 거듭할수록 더 향상된 성능…

2007.01
27

[App 개발] OpenCV 1.0.0 Frameworks

wlee 님 뿐만 아니라 Mac 에서 이미지 프로세싱 관련 연구를 하시는 분들에게 유용한 툴이 될 듯 싶습니다. 좋은 라이브러리를 알게 되어 wlee 님께 감사말씀 드립니다. ^^ 물론 1.0.0 을 그대로 command-line 으로 컴파일해도…

2006.08
22

[App 개발] 마유라 는 한글이 잘 되는군요. ^^

InputStreamReader 의 속성을 SJIS 에서 EUC-KR 로 바꾸는 방법으로 미와 고스트는 안되는데 마유라 고스트는 잘 되는군요. 인텔 맥에서도 문제없이 돌아가고 있습니다. 영환님도 이미 컴파일 해보셨겠지만, 안되었으면 한 번 …

2005.12
19

[App 개발] Xcode 2.2 에서 카본 프로그램 만들자 (3)

이번에는 본격적으로 Quartz 의 Core Graphics 를 이용해서 그림을 그려 보겠습니다. 참고 자료로는 애플 홈페이지에서 다운로드 받으실 수 있는 Quartz 2D Programming Guide 입니다. 프로그램의 기본 구조는 이…

2005.12
17

[App 개발] Xcode 2.2 에서 카본 프로그램 만들자 (2)

윈도우 프로그래밍을 처음 공부한ㄴ 사람들이 한결같이 내놓는 불만은 "왜 이렇게 어렵냐" 라는 것입니다. 막말로, C 에서는 printf("Hello World\\n") ; 요거 하나만 하면 글을 볼 수 있는데, 윈도우에서는 글자 하나를 보…

2005.12
16

[App 개발] Xcode 2.2 에서 카본 프로그램 만들자 (1)

Xcode 새 버젼의 카본 어플리케이션 템플릿이 좀 더 친절해졌더군요. 한편, 지금까지 자기 고유의 이벤트 핸들러를 갖고 계시던 분들에게는 더 힘들어 졌더군요. ㅠㅠ 자 해 봅시다. 일단. Xcode 를 실행하고, File-&gt;N…

2009.08
25

[App 개발] OpenCL: democracy for GPU computing?

OpenCL: GPU 프로그램의 민주주의인가 by Damien Triolet March 19, 2009 OpenCL 개발 실무진이 꾸려진 지 6 개월 후 Khronos 라는 이름으로 출범하게 되었습니다. 아시는 것처럼 OpenCL (Open …

2009.08
22

[App 개발] Introductory Tutorial to OpenCL

Introductory Tutorial to OpenCL Skip Navigation LinksHome > GPU Tools > ATI Stream SDK > Introductory Tutorial to OpenCL Benedict R. Gas…

2009.08
21

[App 개발] CUDA, Supercomputing for the Masses (6)

- 광역 메모리와 CUDA 프로파일러 이번 6회에서는 메모리 성능과 reverseArray_multiblock_fast.cu 에서 공유 메모리를 사용하는 것을 살펴보겠습니다. 이번에는 CUDA 프로파일러를 이용하여 광역 메모리를 점검할 것입니다.…

2009.08
20

열람중 [App 개발] CUDA, Supercomputing for the Masses (5)

- 공유 메모리의 이해 (2) 지난 4회에서 실행 모델과 커널 실행 환경 설정이 레지스터의 갯수와 공유 메모리같은 지역 멀티프로세서 자원에 영향을 미치는지 살펴보았습니다. 이번에는 메모리 성능과 reverseArray_multiblock_fast…

2009.08
19

[App 개발] CUDA, Supercomputing for the Masses (4)

- 공유 메모리 사용법 CUDA 개발자에게 성능 향상의 관건은 공유 메모리, 상수 메모리, 레지스터 등의 프로세서 지역 메모리를 효율적으로 사용하는 것입니다. 앞 장에서 살펴본 것처럼, 전역 메모리 밴드폭이 60GB/s 라고 하지만, 실제 부동소…

2009.08
18

[App 개발] CUDA, Supercomputing for the Masses (3)

- 오류처리와 전역 메모리 성능 한계 축하합니다! CUDA 시리즈의 1편과 2편을 마치신 여러분은 CUDA 프로그래머가 되어서 이제 여러분은 CUDA 장치가 지원하는 수백 개의 병렬 쓰레드를 이용한 프로그램을 개발할 능력을 갖추셨습니다. 2편에 …

2009.08
17

[App 개발] CUDA, Supercomputing for the Masses (2)

지난 1편에서는 첫 번째 CUDA 예제 moveArray.cu 를 소개하면서 CUDA 툴을 이용하여 프로그램을 만들고 실행하는 것을 연습하였습니다. C 프로그래머에게 그 프로그램은 단순히 CUDA API 를 호출하여 메모리를 할당하여 CUDA 장비와 …

2009.08
16

[App 개발] CUDA, Supercomputing for the Masses (1)

CUDA, Supercomputing for the Masses Rob Farber April 15, 2008 CUDA 는 GPU 상에서 동작하는 소프트웨어를 쉽게 개발하는 기법을 제공합니다. C 와 같은 고급언어를 사용하면서도 멀티코어…

2009.08
15

[App 개발] Mac OS X 커널의 내부 (3)

- 인텔 프로세서 관련 XNU 가 i386 을 지원하기 시작한 것은 90 년대 중반 OpenStep 으로 판매되기 시작할 때부터이지만, Mac OS X 에 적용된 것은 애플이 인텔 프로세서를 채택한 2005/2006 년도부터입니다. 그리고 64 …

2009.08
14

[App 개발] Mac OS X 커널의 내부 (2)

- 아키텍쳐 "XNU" (X is Not Unix) 라는 이름의 Mac OS X 의 커널은 세 가지 요소 (Mach, BSD, I/O-Kit) 로 구성되어 있습니다. - Mach (GNU/HURD 를 제외하고) 아직까지 Mach 코드를…

2009.08
13

[App 개발] Mac OS X 커널의 내부 (1)

Mac OS X 커널의 내부 Mac OS X 에는 마하 커널, 마이크로 커널, FreeBSD 커널, C++, 64 비트, 유닉스,... 그리고 이 모든 것이 포함된 "XNU" 등 여러 전문용어가 담겨있습니다. Mac OS X 커널은 마하 커널도,…

2009.08
12

[App 개발] OS X 를 지원하지 않는 기종을 위한 커널 해킹 (7)

플랫폼 엑스퍼트는 IODTNVRAM 인스턴스를 new 구문으로 직접 생성하고 있으므로 둘은 강하게 연결되어 있습니다. /options 노드는 연결 과정에 참여하고 있지 않고 있으며, 따라서 IODTNVRAM 을 대체할 드라이버를 제공하는 쉬운 방법이 …

2009.08
11

[App 개발] OS X 를 지원하지 않는 기종을 위한 커널 해킹 (6)

- 프로퍼티 조정: 약간의 거짓말이 필요할 때 멤버 변수 외에도 Mac OS X 드라이버에는 IOService (모든 Mac OS X 드라이버의 수퍼클래스) 로부터 상속받은 프로퍼티 테이블을 가지고 있습니다. 프로퍼티를 억세스하는 멤버는 퍼블릭이…

2009.08
09

[App 개발] OS X 를 지원하지 않는 기종을 위한 커널 해킹 (5)

- Mac OS X 업데이트 문제: 오묘한 커널의 세계 기존 드라이버에서 서브클래스를 만들어 우회하는 기법의 가장 큰 장점은 애플이 Mac OS X 를 업데이트 하더라도 커널 익스텐션을 계속 사용할 수 있다는 점입니다. 애플이 제공하는 드라이버를…

2009.08
08

[App 개발] OS X 를 지원하지 않는 기종을 위한 커널 해킹 (4)

- 애플 드라이버 서브클래싱: CD-ROM 충돌이 일어난 경우 Mac OS X 정품을 미 지원 시스템에 설치하는 또 다른 어려운 과제가 바로 스커지 CD-ROM 장치에 CD 를 넣을 경우 시스템 패닉이 일어난다는 점입니다. 이것은 좀 어려운 문제…

2009.08
07

[App 개발] OS X 를 지원하지 않는 기종을 위한 커널 해킹 (3)

- 부팅 과정 따라가기: 정품 인스톨 CD 부팅 PatchedNVRAM.kext 뿐만 아니라 여러 개의 드라이버들을 고치거나 새로 만들어야 합니다. 대략 45,000 줄의 코드 분량의, 모두 30개의 커널 익스텐션을 손보아야 합니다. 미 지…

2009.08
06

[App 개발] OS X 를 지원하지 않는 기종을 위한 커널 해킹 (2)

... 수정된 코드를 PatchedAppleNVRAM 으로 컴파일하는 것은 어렵지 않았습니다. AppleNVRAM 클래스는 짧고 간결했기 때문에, 코드를 복사한 다음 수정해야 할 두 줄만 고쳐 주었습니다. 이제 어떻게 커널이 내 드라이버를 선택하…

2009.08
05

[App 개발] OS X 를 지원하지 않는 기종을 위한 커널 해킹 (1)

OS X 를 지원하지 않는 기종을 위한 커널 해킹 Ryan Rempel (Other World Computing) - 요약 OS X 가 더 이상 지원하지 않는 기종에서 OS X 를 사용하기 위해서는 커널과 몇 가지 IOKit 익스텐션을 변경해…

2009.02
16

[App 개발] SSE 최적화 (0) 서

맥이 인텔 프로세서를 사용한 지 어언 수 년이 흐르고, 이제 자연스럽게 인텔 프로세서의 장점을 십분 활용하는 방법을 강구하여야 하겠습니다. 예전에 제가 본 게시판에 게재했던 '코드 최적화' 글들을 같이 참조하시면 도움이 되실 것입니다. 대장…

2008.10
14

[App 개발] NSImage 를 비트맵으로 처리하는 방법

제가 아까 잠결에 본 질문글이 있었는데, 다시 자고나서 일어나보니 지우셨나봐요. 질문 내용을 정확히 이해하지 못하고 그냥 얼핏 보았는데, 대략 "NSImage" 객체에서 raw 비트맵 정보를 끄집어내서 작업하고 싶어하시는 것 같던데, 맞나요 …

2007.08
18

[App 개발] 오목 게임 (소스포함)

어떤 분의 요청에 의해 오목게임에 착수한 지 일주일만에 이런 엄청난 게임 -_-;;; 을 만들 수 있다니... 저의 재능에 스스로 놀라면서 (우웩~ -0-;) 카본과 쿼츠 2D 로 만든 초간단 오목 게임입니다. 상당히 멍청한 알고리듬을 탑재하고 …

2007.01
27

[App 개발] OpenCV 1.0.0 Frameworks

wlee 님 뿐만 아니라 Mac 에서 이미지 프로세싱 관련 연구를 하시는 분들에게 유용한 툴이 될 듯 싶습니다. 좋은 라이브러리를 알게 되어 wlee 님께 감사말씀 드립니다. ^^ 물론 1.0.0 을 그대로 command-line 으로 컴파일해도…

2006.11
05

[App 개발] iCal 에 음력 날짜를 출력하자

"한국 달력" 위젯으로 음력 날짜를 확인하셔도 되긴 합니다만, 이왕이면 iCal 에 음력 날짜를 표시해 두면 일정 관리 및 어르신, 친지, 친구 생일 등을 한 프로그램에서 할 수 있으니 편하겠지요 지난번에 iCal 의 파일 포맷을 읽어들이는 루틴…

2006.08
26

[App 개발] iCal 의 데이터를 읽어들이는 초간단 Java 소스

최종 목표는 가짜사과 입니다만 -_-; 혹시나 이런 허접한 소스라도 필요하신 분이 있지 않을까 싶어서 이렇게 올립니다. 눈여겨 보실 클래스는 iCalReader 이고요, iCal 의 데이터를 읽어들이는 루틴을 짧게 구현한 것입니다. O'Re…

2006.08
25

[App 개발] 가짜사과에 내장된 카와리 7 모듈

오늘도 일하다가 몰래 소스를 좀 봤습니다. -_-; 이러다 짤리는걸까 SHIORI Kernels 디렉토리에 있는 SCKawari*.java 가 바로 문제의 "카와리 7" 의 Java 클론이라는데 대충 이렇게 저렇게 살펴보니 대략 세 가지 모…

2006.08
24

[App 개발] 혹시 shioribox 에 관한 정보가 있으면

JNI 에서 시오리 커널을 호출하는 기능 (어떤 설명에서는 커맨드 라인에서도 구동이 가능하다고 하더군요) 을 담당하는 shioribox 모듈에 관한 정보가 좀 더 필요한데, 혹시 찾으신 것 있으면 알려주세요. 이제 Kawari 8 모듈은 거의 다…

2006.08
22

[App 개발] 마유라 는 한글이 잘 되는군요. ^^

InputStreamReader 의 속성을 SJIS 에서 EUC-KR 로 바꾸는 방법으로 미와 고스트는 안되는데 마유라 고스트는 잘 되는군요. 인텔 맥에서도 문제없이 돌아가고 있습니다. 영환님도 이미 컴파일 해보셨겠지만, 안되었으면 한 번 …

2006.08
22

[App 개발] 니세링고 한글 입력

자바의 BufferedReader 메쏘드를 이용해서 딕셔너리를 읽어들이는 것으로 생각이 되는데 그래서 BufferedReader 를 생성할 때 만드는 InputStreamReader 에 코드를 SJIS 에서 EUC-KR 이나 MS949 로 변경해…

2006.08
21

[App 개발] 나니카 실행 성공

설명에 나온 그대로였어요. 영환님. ㅎㅎ 그런데, 되는 고스트가 있고 안 되는 고스트가 있네... -_-;

2006.08
11

[App 개발] MallocDebug

Xcode 와 CHUD 를 설치하면 여러 가지 Performance Tools 를 보게 됩니다. 그 중에서 Shark 툴을 가장 빈번히 사용하게 되는데요, 이것은 일종의 profiling tool 입니다. 어떤 프로그램이 어떤 경로로 어떤 루틴을 수행…

2006.05
24

[App 개발] OpenGL 을 이용한 게임 만들기 (2) - 3D 모델

드디어 3D 의 세계로 입성하게 되었습니다. 게임 프로그래밍을 생각하시는 많은 분들이 일단 OpenGL 책부터 끄적끄적 하다가 그냥 덮게 되는것은, 어디서부터 손을 대어야 할지 모르기 때문이 아닐까 생각합니다. 일단 OpenGL 을 사용하기 위해서 습…

2006.05
18

[App 개발] OpenGL 을 이용한 게임 만들기 (1) - 2D 맵

앞으로 얼마나 진도를 나갈 수 있을지 저도 장담할 수 없는 시리즈의 첫 번째 편을 쓰게 됩니다. ㅡㅡ; Mac OS X 뿐만 아니라 여러 다양한 플랫폼에서 산업 표준으로 이용되고 있는 OpenGL 을 이용한 게임 제작이 한창입니다. MS 의 Di…

2006.03
23

[App 개발] GNU Scientific Library 를 Xcode 에서 컴파일하다

과학, 공학 전공하시는 분들이시라면, 선호하는 계산 라이브러리가 있으실 줄 압니다. 가장 간편하고 인기있는 라이브러리는 역시 Numerical Recipes 라이브러리가 되겠지만, 요즘은 GNU Scientific Library (GSL) 이 대세죠 …

2006.03
11

[App 개발] 인텔맥에 대처하는 우리의 자세 ㅡㅡ;

이미 작년 6월 이후부터 꾸준하게 유니버설 바이너리 관련 개발자 정보들이 나왔기 때문에 지금은 그 충격이 거의 상쇄되어 버린 기분입니다. 그리고 새로 출시된 인텔 아이맥과 맥북 프로의 성능이 기존 제품을 훨씬 능가한다는 사실을 보면서 많은 개발자들이 …