Discover coex, A DESTINATION FOR BUSINESS, CULTURE, AND ENTERTAINMENT
SIGGRAPH ASIA 2010   Community Tech in Computer Graphics
 
SIGGRAPH2007을 빛낸 한국인 #2
KoreaGraph 2010-10-31

A Touchable 3D Museum With Maximum Usage of Haptics: MuseSpace
디지털 기술이 발전함에 따라서 시, 공간적 제약이 있는 실세계 문화 콘텐츠의 하나인 전시공간을 홍보나 교육목적을 위해 가상공간에 구현하는 다양한 기법들이 개발되고 있다. 현재 연구되고 있거나 사용 중인 가상 전시공간들은 대부분 시각과 청각을 이용하여 사용자에게 정보를 전달하고 있으나, 최근 햅틱 기술을 융합한 형태의 가상전시공간에 대한 연구가 진행되고 있다. MuseSpace는 촉감을 제공하는 가상 박물관으로 햅틱 기술의 효용성을 극대화한 프로토타입이 라 말할 수 있다. MuseSpace는 다양한 음악전시물로 구성된 전시장을 지칭한다. 사용자들은 이 가상환경 안에서 걸어 다닐 수도 있고 전시물을 만질 수도 있다. MuseSpace의 최종 목적은 햅틱 기술을 이용한 다양한 상호작용을 통하여 가상환경 몰입감을 증가시키는 동시에 교육적, 오락적 정보와 콘텐츠를 사용자에게 제공하는 것이다.
MuseSpace에서 제공하는 상호작용은 총 3가지 종류(Touch-Reactive NPCs, Virtual Musical Instruments, Touchable Artifacts)가 있다. 간단하게 설명해 보자면 Touch-Reactive NPCs(Non-Player Characters) 상호작용은 게임에서 볼 수 있는 NPC들에게 감정을 부여하여 햅틱 장비를 통해 NPC를 만지면 그에 따라 NPC가 반응을 하게 되는 것이다. 다양한 NPC들은 각각의 감정을 가져 다양한 반응으로 사용자와 교감한다. Virtual Musical Instruments 상호작용은 향후 키보드와 마우스를 대체할 햅틱 장비를 사용하여 음악 연주 게임을 개발한 것이다. Touchable Artifacts는 실제 박물관에서 만질 수 없는 다양한 작품들을 가상공간에 전시하여 햅틱 장치를 통하여 작품들의 다양한 재질을 느낄 수 있게 하였다. 햅틱 장비로 나타낼 수 있는 다양한 촉감의 종류(예: 유리, 바위, 도자기 등)를 조사하고 적용하였다. 위 3가지의 상호작용을 제외하고도 3D 가상공간을 햅틱장비를 사용하여 이동할 수 있는 Haptic Navigation 등을 MuseSpace의 플랫폼에 추가하여 햅틱을 유용성을 최대화 하려는 노력을 하였다. MuseSpace는 아직 기술적으로 완성된 단계가 아닌 프로토타입 단계에 있다. 이를 극복하기 위해서는 3D 가상 전시 공간 개발기술과 햅틱스에 대한 심도 있는 연구가 필요할 것이다. 이러한 연구들은 향후 세컨드 라이프와 같
은 가상공간에서 햅틱이라는 새로운 인터페이스를 자유자재로 사용하여 가상현실의 수준을 한 단계 높이는데 공헌할 것이라 확신한다.

Camera Motion Estimation in Ocean Scene
영화에서 실사 영상과 CG 요소를 합성하기 위해서는 실사 영상을 촬영했던 카메라의 내부, 외부 변수를 계산하는 과정이 필수적이다. 카메라 트래킹이라고 불리는 이 과정은 초점거리와 같은 카메라 내부 변수와 회전, 이동과 같은 카메라 외부변수를 추출하는 과정이며, MCC(Motion Control Camera)를 이용하여 하드웨어적으로 추출하는 방법과 영상 시퀀스만을 입력하여 소프트웨어적으로 카메라 변수를 예측하는 방법이 있다. MCC는 고가이면서 야외 촬영현장에서 사용의 제한을 받기 때문에 영화 제작 현장에서는 Boujou, Matchmover와 같은 외국산 카메라 트래킹 소프트웨어가 일반적으로 많이 사용된다. 하지만 이들 소프트웨어도 바다를 배경으로 하는 영상은 처리하지 못했었기에 이러한 영상에 대해서는 아티스트들의 수작업과 눈짐작으로 카메라 트래킹이 수행되곤 하였다.
이번 SIGGRAPH 2007에서 발표되었던 해상 카메라 트래커는 정보통신부‘실사수준의 디지털 영상 콘텐츠 제작 S/W개발’과제의 일환으로 개발되었으며, 박창준 박사의 주도하에 ETRI 연구원들의 땀과 노고를 통해 세계 최초로 해상 영상에서 카메라의 움직임 변수를 정밀하게 추출할 수 있었다. 수평선을 바다 평면의 소실선으로 가정하여 카메라의 회전에 의해서만 움직인다는 아이디어에서 시작한 연구는 해상 장면을 배경으로 하는 실사영상으로부터 카메라의 회전, 이동 변수를 순차적으로 정확히 추출하는 카메라 트래커를 완성하였으며, 개발된 트래커는 2006년 개봉되었던 영화 <한반도>에 적용되어 우수한 성능을 입증 받았다.
<위 그림에서 왼편은 입력 영상이며, 실사 바다 영상과 실제 군함의 모습이 보인다.
오른쪽은 카메라 트래킹 후 CG 군함이 합성된 결과물이 영화 <한반도>의 한 장면이다.>

Bibigi
이 인스톨레이션은 동일한 시, 공간에서 빛, 소리, 그리고 사람(인종)간의 조화를 이루는 과정을 통해 서로 다른 종(種)간의 소통에 대한 고찰을 유도하고자 한 것이다.
이 작품의 방법론을 살펴보면, 마블링기법을 통해 실시간으로 이미지를 창조하고 컴퓨터 프로그램을 통해 이미지를 사운드로 변환시킨다. 이때 작품에서 제안하는 색음변환공식에 의거하여 이미지의 색상(Hue)과 명도(Intensity)를 사운드의 음정(Frequency)과 음량(Loudness)으로 각각 변환한다. 이미지와 사운드를 만들어낼 때 어느 한 쪽에 집중하는 순간, 다른 한 쪽은 매우 불안정한 상태가 되기 때문에 양쪽의 교집합을 찾아내어 대안이 될 수 있는 순간을 만들어 낼 것이다.
일반적으로 카메라 디바이스에서 입력 받는 컬러 데이터의 모델은 RGB를 사용한다. 여기서 제시하는 방법은 Color model의 Hue, Intensity의 두 가지 Feature를 사용하여 Sound의 Pitch, Loudness의 세 가지 Feature를 정의하기 때문에 RGB 컬러모델을 사용하기에는 부적합하다.
그래서 RGB 모델을 HSI 모델로 변환하여야 한다. 음은 공기를 매질로 사용하여 파동이라는 현상으로 전달되게 된다. 색 역시 빛을 이용하여 파동이라는 현상으로 전달되게 된다. 매질은 서로 다르지만 파동이란 현상으로 정의되며 주기의 차이에 의해 음은 음의 높이가 색은 색상의 차이가 나타나게 된다. Human perception에 의해 음의 Logarithmic Scale에 따른 증가를 색의 주기의 증가에 의해 정의되도록 정의한다. 음의 크기는 주파수 도메인에서 Amplitude로 결정된다. 마찬가지로 색의 Intensity 는 주파수의 Amplitude로 결정되므로 상호 변환하면 된다.
음의 크기의 경우는 각각의 1차원 값을 변환할 때 스케일을 정의해야 하는 문제가 있다. 하지만 베버-페히너 법칙 (weber-Fechner Law)에 따르면 우리의 모든 감각 반응은 물리적 자극의 로가리듬값에 따라 증가한다고 한다. 그러므로 값의 변환에 있어서 별다른 가중식은 필요가 없지만 시각이나 청각의 인지학에서 연구된 다양한 스케일을 사용해도 무방하다.

 
Days after/since SIGGRAPH Asia 2010 : 1413
In the News Mailing List
 Follow us