makingrealtimeanimationbygyumi
makingrealtimeanimationbygyumi
Making Real-Time Animation Project
22 posts
Making Real-Time Animation Project by Gyumi An (2020-07-09 ~ ongoing) 
Don't wanna be here? Send us removal request.
Text
플래시의 종료와 대체 가능한 공개 표준 기술의 등장
1. 플래시의 종료
어도비는 오는 2020년 12월 31일을 기점으로 플래시 플레이어 기술 지원을 완전히 종료한다고 밝혔다.
어도비는 2017년 7월 주요 웹 브라우저 제작업체인 애플, 구글, 마이크로소프트, 모질라와 함께 플래시 지원 중단을 공식 발표한 바 있으며, 지원 종료 6개월 전에 다시 한번 이를 공식화했다. 어도비는 12월 31일 이후 소프트웨어 업데이트 지원 중단은 물론 어도비 웹사이트와 다운로드 서비스에서 모든 플래시 플레이어 다운로드 링크도 제거할 예정이다.
어도비 플래시는 지난 20년간 인터넷 영상 콘텐츠 기술의 발전을 이끌어왔다.
플래시는 텍스트, 이미지 등 정적인 웹 콘텐츠를 애니메이션과 인터렉티브 형태의 동적이고 다양한 웹 콘텐츠로 발전시켰다는 점에서 웹 발전사에 한 획을 그은 기술로 평가된다.
그러나 상대적으로 보안에 취약하고 속도가 느렸으며 HTML5, 자바스크립트, 웹GL 같은 대체 가능한 공개 표준 기술이 등장하면서 성능과 안전성 면에서 우위를 잃었다.
2017년 이후 어도비 제작사인 어도비조차도 플래시로 작동하는 웹 콘텐츠 사용을 중지하거나 자바스크립트, HTML5 등 다른 기술을 적용한 콘텐츠로 대체하도록 권장하고 있다.
웹기술 조사 사이트인 W3테크(W3Techs)에 따르면, 지난 2011년 28.5%까지 올랐던 전 세계 웹사이트 플래시 사용률은 2020년 현재 2.6%까지 떨어졌다.
< 참고 기사:   디지털투데이 (DigitalToday)(http://www.digitaltoday.co.kr) >
2. 대체 가능한 공개 표준 기술
WebGL은 최신 브라우저에서 효율적인 표준방법으로 3D 렌더링을 가능하게 하는 3D 그래픽 라이브러리다.
위키피디아에 따르면, WebGL의 렌더링이란 컴퓨터 프로그래밍 분야에서 모델로부터 이미지를 생성하는 처리 과정이다. 이 처리 과정이 컴퓨터에서 실행됨에 따라 이미지를 생성하는 방법에는 몇 가지 차이점이 있다.
WebGL 렌더링의 첫 번째 차이점은 특별한 그래픽 하드웨어의 존재 유무다.
소프트웨어 렌더링(Software-Based Rendering)은 3D 렌더링을 수행하기 위해 컴퓨터의 메인 프로세서 CPU를 이용한다.
반면, 하드웨어 렌더링(Hardware-Based Rendering)은 그래픽 프로세싱 유닛(GPU, Graphics Processing Unit)을 통해 3D 렌더링을 실시간으로 수행한다.
기술적인 관점에서 보면, 3D 렌더링만 전문적으로 수행하는 하드웨어가 있는 하드웨어 렌더링이 소프트웨어 렌더링보다 훨씬 효율적이다.
대조적으로 소프트웨어 렌더링의 경우는 하드웨어 의존성이 ���어 대중성이 많다고 할 수 있다.
WebGL의 두 번째 차이점은 로컬 렌더링과 원격 렌더링의 차이점이다.
렌더링이 너무 복잡할 경우에는 보통 원격으로 서버에서 렌더링을 한다.
이 경우는 3D 애니메이션의 경우로서 하드웨어가 풍부한 서버에서 렌더링을 하는 편이 좋다. 이를 서버 기반 렌더링(Server-Based Rendering)이라고 한다.
반대의 경우로는 로컬에서 렌더링을 하는 경우로, 클라이언트 기반 렌더링(Client-Based-Rendering)이라고 한다.
WebGL은 클라이언트 기반 렌더링을 한다.
3D 씬을 만들 수 있는 각 요소를 서버로부터 받지만, 렌더링은 클라이언트의 그래픽 하드웨어를 이용해 작업을 수행한다.
자바 3D, 플래시, 유니티 웹 플레이어(Unity Web Player) 플러그인 같은 기술과 비교하면 웹지엘에는 몇 가지 장점이 있다.
(1) 자바스크립트 프로그래밍
자바스크립트는 웹 개발자와 웹 브라우저 양쪽 모두에게 편리한 언어다.
개발 언어로 자바스크립트를 채택하면 돔(DOM)에 쉽게 접근할 수 있으며, 애플릿 방식보다 쉽게 모든 요소에 접근할 수 있다. 그렇기 때문에 WebGL을 개발할 때 제이쿼리 같은 제 3의 자바스크립트 라이브러리나 여타 HTML5 기술을 이용할 수 있다.
(2) 자동 메모리 관리
사촌격인 OpenGL이나 여타 기술은 개발자가 직접 메모리 할당/해제를 해야 하지만, WebGL은 그렇지 않다.
자바스크립트의 변수 할당 규칙에 따라 메모리는 더 이상 필요하지 않을 때 자동으로 해제된다. 이런 단순한 프로그래밍 규칙은 좀 더 명확하고 쉽게 이해할 수 있도록 코드를 줄일 수 있다.
(3) 자원의 풍부함
기술이 발전함에 따라 자바스크립트 구동이 가능한 웹 브라우저를 스마트폰과 태블릿에서 사용할 수 있게 되었다.
이 책을 쓰는 현재 모질라 재단(Mozilla Foundation)은 모토로라와 삼성 폰에서 WebGL을 테스트하고 있다. 또한 안드로이드 플랫폼에서 웹지엘을 구현하고 있다.
(4) 성능
WebGL은 로컬 그래픽 하드웨어 덕분에 다른 독립된 애플리케이션에 비해 성능이 떨어지지 않는다. (단, 예외도 있다. ) 지금까지는 많은 3D 웹 렌더링 기술이 소프트웨어 방식 렌더링에 의존했다.
(5) 제로 컴파일
WebGL은 자바스크립트로 개발되기 때문에 컴파일이 필요없는데, 이는 3D 애플리케이션을 만드는 데 있어 장점이 될 수 있다.
그러나 셰이더 프로그램을 설명할 때는 따로 컴파일이 필요하다는 사실을 알 수 있다. 하지만 이러한 일도 브라우저 안에서가 아니라 로컬 그래픽 하드웨어에서 일어난다.
< 참고 서적: 디에고 켄토, WebGL 3D 프로그래밍 >
0 notes
Text
Mecanim
Mecanim은 유니티의 애니메이션 시스템이다. 
RunLeft, Jump 또는 Crawl과 같은 격리 된 모션 조각을 나타내며 다양한 방법으로 조작 및 결합하여 생생한 최종 결과를 생성 할 수 있다 (참조 :애니메이션 상태 머신, 애니메이터 컨트롤러, 또는 블렌드 트리 ). 
가져온 FBX 데이터에서 애니메이션 클립을 선택할 수 있다.
애니메이션 클립이 포함 된 모델을 클릭하면 다음 속성이 나타나는데,  
이를 ‘애니메이션 클립 인스펙터’라 부른다. 
Tumblr media
애니메이션 탭 에는 4 개의 영역이 있다. 
(A) 자산 별 속성: 이러한 설정은 전체 자산에 대한 가져 오기 옵션을 정의합니다.
(B) 클립 선택 목록 . 이 목록에서 항목을 선택하여 속성을 표시하고 애니메이션을 미리 볼 수 있습니다. 새 클립을 정의 할 수도 있습니다 .
(C) 클립 관련 속성 . 이 설정은 선택한 애니메이션 클립에 대한 가져 오기 옵션을 정의 합니다.
(D) 애니메이션 미리보기 . 여기에서 애니메이션을 재생하고 특정 프레임을 선택할 수 있습니다.
0 notes
Text
How to animate a character with Mixamo for Unity
Mixamo에서
Mixamo(믹사모)에 접속하여 원하는 캐릭터나 애니메이션을 다운로드한다.  
(※ Format을 ‘for Unity(.fbx)’로 설정하여 다운로드 한다. )
다운로드한 파일을 압축풀기한 다음, 그 파일을 유니티 창으로 드래그하여 유니티로 가지고 온다. 
Unity에서
‘Unity Manual’에서 ‘Animation - Animator Controllers’ 문서 를 보고 참고할 것. 
특히  ‘The Animator Controller Asset’ 부분을 자세히 읽고 사용할 수 있어야 할 것이다. 
도큐먼트에서는 ‘The Animator Controller Asset’ 에 대해 다음과 같이 설명하고 있다. 
In most situations, it is normal to have multiple animations and switch between them when certain game conditions occur. For example, you could switch from a walk animation to a jump whenever the spacebar is pressed. However even if you just have a single animation clip you still need to place it into an animator controller to use it on a Game Object.
대략 스페이스바를 누르면 점프를 하는 등 애니메니션 동작을 컨트롤할 수 있도록 할 수 있는 기능이라는 것이다. 
Tumblr media
Animator component에 대한 내용도 함께 참고하면 도움이 될 것이다. 
0 notes
Text
블렌더에서 지하철 복도 만들기
20분만에 블렌더에서 지하철 복도 만들기
youtube
→ 모델 / 텍스처 HDRS / 브러쉬 참고 사이트
→ 참고 이미지
20분만에 가능한 건 어디까지나 유튜버 당신의 이야기가 아닌지?ㅋㅋ
0 notes
Text
Painterly 3D
- 페인트 느낌의 3D
- Painterly 3D 제작 방법
- https://skfb.ly/6zQus
- Making process
Tumblr media
0 notes
Text
2D to 3D Face-builder and Facial motion capture in Blender
- 2D TO 3D FACE-BUILDER IN BLENDER!
- Create Your Face (Blender Tutorial)
-  Blender 2.8 Facial motion capture tutorial
-  How to 3D Motion Capture Easy and Free with a Phone!
-  Add CGI Characters to Live Footage | Blender 2.8 VFX Tutorial
(작성 중)
0 notes
Text
Photoscan
How to 3D Photoscan Easy and Free! 
youtube
원래 3D 포토스캔을 하려면 꽤 많은 돈을 지불하고 유료 소프트웨어를 사용해야하는데, ‘ AliceVision ’이라는 오픈소스 소프트웨어를 사용하면 무료로 포토스캔 작업을 할 수 있다. 
AliceVision
AliceVision is a Photogrammetric Computer Vision Framework which provides a 3D Reconstruction and Camera Tracking algorithms. AliceVision aims to provide strong software basis with state-of-the-art computer vision algorithms that can be tested, analyzed and reused. The project is a result of collaboration between academia and industry to provide cutting-edge algorithms with the robustness and the quality required for production usage. 
→  AliceVision 소스코드
→ 결과물 보기
Photogrammetry 란? 
Photogrammetry is the science of making measurements from photographs. It infers the geometry of a scene from a set of unordered photographies or videos. Photography is the projection of a 3D scene onto a 2D plane, losing depth information. The goal of photogrammetry is to reverse this process. 
→ https://alicevision.org/#photogrammetry/natural_feature_extraction
→ https://alicevision.org/#photogrammetry/sfm
Meshroom
Meshroom is a free, open-source 3D Reconstruction Software based on the AliceVision Photogrammetric Computer Vision framework.
→  Meshroom 소스코드
0 notes
Text
3D 라인아트
최근 skfb사이트를 둘러보다가 2D 라인 아트 느낌이 나는 3D 실시간 렌더링 영상을 제작하는 분의 작업물을 보게 되었다. 
이 분 같은 경우에는  skfb사이트에서 무료 다운로드 가능한  참고작(martinjario: https://skfb.ly/JrST)을 가져와서 Blender에서 열어 변형한 뒤, 라인 아트 텍스처를 입히는 방식으로 작업을 했다고 한다. 그렇게 하여 다음과 같은 작품을 완성했다. 
→ 완성작 
만드신 분이 빠르고 간단하게 작업을 하셔서 그다지 빡센 퀄리티는 아니지만 작업 방식은 한번쯤 따라해보고싶다. 
빡세게 잘 작업하면 굉장히 멋있을 것 같다. 
잘은 모르겠지만, 강철비 1편 엔딩시퀀스 정도되는 그래픽을 만들 수 있지 않을까 하는 기대를 해본다. 
모델링 작업을 애니메이션으로 만들기까지는 하나의 노선으로 모든 것을 해결할 수 있는 경우가 드물다. 
보통 작업이 복잡해지면 여러 개의 환승역을 거칠 수 밖에 없게 된다. 
환승하면서 길을 잃거나 문제가 발생할 수 있으니 주의해야 한다. 
아래는 skfb에서 blender로 환승하는 방법을 설명하는 사이트다. 
→ skfb사이트에서 blender로 작업 가져가는 방법
여기까지 되고 나면, 이번에는 blender에서 unity로 환승을 할 생각인데, 유니티로 가져가서 그걸로 게임이나 애니메이션 만들 수 있는지 궁금하다. 
곧 시도해볼 생각이다. 
0 notes
Text
3D 관련 플렛폼
3D 작업을 하다보면 모든 작업을 일일이 직접하기가 힘든데, 그럴 때 다음과 같은 ���이트가 무척 도움이 된다. 참고할 만한 것들이 꽤 많고 그것들을 다운로드해서 프로그램에서 열고 직접 변형해볼 수도 있다. 그냥 가져와서 쓰기보다는 스스로  변형하고 편집하고 다양하게 시도를 하면 퀄리티도 높일 수 있고 연습도 된다. 
게임엔진이나 3D 프로그램과 호환성이 좋아서 정말 유용하다. 
직접 만든 작업물을 사이트에 올릴 수도 있고, 사고 팔 수도 있다. 
Sketchfab
Sketchfab은 3D, VR 및 AR 컨텐츠를 게시, 공유, 검색, 구매 및 판매하는 플랫폼입니다. WebGL 및 WebXR 기술을 기반으로 뷰어를 제공하여 사용자가 웹에 3D 모델을 표시하고 모바일 브라우저, 데스크탑 브라우저 또는 가상 현실 헤드셋에서 볼 수 있도록합니다.
나는 스캐치팹이 WebGL 및 WebXR 기술을 기반으로 한다는 것에 굉장히 놀랐고... 이것 때문에 나는 이 사이트를 앞으로 계속 애용하기로 결심하게 되었다. 우선 나는 이전에 혼자 웹코딩을 하면서 WebGL을 이용해보았는데 호환성(?)이 좋다는 점과 편리하다는 것이 장점이라고 느꼈다. 무엇보다 가장 큰 장점이라고 여겼던 부분은, 3D로 만든 작업물을 다른 플랫폼에 의존하지 않고 독자적으로 웹에서 실시간 렌더링 영상으로 구현할 수 있다는 것이었다. 게다가 키보드나 마우스를 통한 인터랙션까지 가능하도록 제작할 수도 있다.      
Mixamo
Mixamo is 3D computer graphics technology company. Based in San Francisco, the company develops and sells web-based services for 3D character animation. Mixamo's technologies use machine learning methods to automate the steps of the character animation process, including 3D modeling to rigging and 3D animation
0 notes
Text
About Unity3D
엔진과 그래픽스 API
유니티 엔진을 중심으로 예를 들며 설명을 쓰겠습니다. 유니티는 멀티플랫폼(Multi Platform) 엔진입니다. 그 말은 즉, MS 윈도우, 매킨토시 등 PC뿐만 아니라 아이폰, 안드로이드 등 모바일 기기에서도 구동되는 게임을 만들 수 있다는 것입니다. 그것은 유니티는 다양한 그래픽 칩셋을 지원한다는 것을 의미하며, 바꿔 말하면 다양한 그래픽 칩셋에서 렌더링이 지원된다는 뜻입니다. 기기의 화면에 직접 렌더링���는 것은 CPU(중앙 처리 장치)가 아니라 GPU(Graphics Processing Unit: 그래픽 처리 장치: CPU를 보조할 그래픽 전용 프로세서 연산)를 통해서 (CPU의 도움없이) 자체적으로 이루어집니다. 이러한 GPU는 다양한 벤더들에 의해 제조되고 있기 때문에 수많은 모바일 기기들이 모두 동일한 GPU로 제작되지 않습니다. PC는 인텔 GMA, 엔비디아 GeForce, AMD Radeon 등의 GPU를 사용한 칩셋을 이용하여 렌더링합니다. 아이폰 및 아이패드는 PowerVP 혹은 자체 설계한 GPU를, 안드로이드는 ARM의 mali, 퀄컴의 스냅드래곤, 엔비디아 테그라 등 다양한 GPU를 이용한 그래픽 칩셋을 사용합니다. 이러한 GPU들은 모두 각각의 펌웨어 및 드라이버를 제공합니다. 소프트웨어 개발자가 각 OS별로 모든 GPU의 프로토콜에 맞추어 렌더링 소프트웨어를 만들어 내는 것은 사실상 불가능합니다. 그래서 그래픽스(Graphics) API(Application Programming Interface)라는 것이 존재합니다. API도 다양한 형태로 존재합니다. 우리가 흔히 들어본 적 있는 DirectX, OpenGL 등은 이에 해당됩니다. 잘 설계된 인터페이스를 사용하면 환경(플랫폼)이 달라져도 동일한 코드가 동일한 결과를 수행하며, 편리하게 프로그래밍이 가능합니다. 그 중 'OpenGL'은 1992년 초에 컴퓨터 그래픽스의 표준 규격을 기반으로 발표한, 2차원과 3차원 그래픽 이미지를 정의하기 위한 컴퓨터 산업계 표준 응용프로그램입니다. '컴퓨터 산업계 표준 응용프로그램'에서 '표준'이라는 말이 중요합니다. 여기서 '표준'이라는 말은, OpenGL 그래픽 어댑터를 사용하면 어떤 운영체제에서도 동일한 효과를 내는 응용프로그램을 쉽게 작성할 수 있다는 것을 의미합니다. 이는 하드웨어와 운영체제의 제약을 받지 않는 '범용적인' API 프로그래밍을 위한 것입니다. OpenGL은 크로노스 그룹이라는 단체에서 꾸준히 연구 개발되고 있습니다. 크로노스 그룹은 특정 기업에 종속된 단체가 아니라 여러 미디어 관련 기업들이 참여한 비영리 기관으로, 회원사가 납부한 회비로 운영되는 컨소시엄입니다. 회원사로는 AMD, 엔비디아, 구글, 인텔 등 다양한 기업들이 있으며, 유니티 역시 크로노스 그룹의 멤버입니다. 모든 크로노스 회원들은 크로노스의 API 표준 개발에 참여할 수 있습니다. 따라서, OpenGL은 어느 특정 기업만의 플랫폼이나 특정 그래픽 장치만이 아닌 다양한 플랫폼과 다양한 그래픽 장치에서 호환되는 크로스 플랫폼 라이브러리로 만들어집니다. MS 윈도우즈뿐만 아니라 매킨토시, 리눅스 등의 환경에서 작동합니다. 그래서 데스크톱 시스템에서는 DirectX와 함께 가장 널리 사용되는 그래픽스 API입니다. 물론 게임만 따진다면 DirectX의 점유가 압도적이지만 게임을 제외한 렌더링 소프트웨어들에서는 멀티플랫폼을 지원해야 하므로 OpenGL이 널리 사용됩니다. 하지만 앞서 언급했듯이 모바일 환경은 데스크톱에 비해 열악합니다. 그 때문에 OpenGL을 그대로 모바일 시스템에서 구동하기에는 무리가 있습니다. 크로노스 그룹은 이러한 모바일 환경에서 2D, 3D 그래픽스를 위해 더 작고 가벼운 별도의 표준을 제정했는데, 이것이 바로 OpenGL ES 입니다. 여기서 ES란 Embedded System을 의미합니다. ES는 상위의 표준인 OpenGL에서 잘 사용되지 않거나 대체적인 방법이 있는 것을 제외하고 축소하여 만든 서브셋(Subset)입니다. 이같은 프로그램들은 다양한 GPU의 드라이버를 이용하는 라이브러리들을 만들고, 이를 API의 형태로 제공해서 소프트웨어 개발자들이 각각의 GPU 및 OS별로 따로 신경쓰지 않고도 렌더링 소프트웨어를 만들 수 있도록 해 줍니다. Maya, 3ds Max 등의 렌더링 소프트웨어가 이러한 그래픽스 API를 이용해서 만들어집니다. 게임 역시 렌더링되는 소프트웨어인데, 그것은 그래픽 API를 이용해서 만들어야 한다는 의미가 됩니다. 하지만 그래픽 API 역시 OS에 따라 다양하게 존재합니다. 예를 들면, DirectX는 마이크로소프트사에서 만드는 그래픽 API라서 MS의 운영 체제에서만 작동합니다. OpenGL은 MS Windows 뿐만 아니라 매킨토시 및 리눅스 OS에서 작동합니다. OpenGL ES는 주로 안드로이드 및 iOS 등 휴대용 기기의 OS에서 수행됩니다. 뿐만 아니라 WebGL을 통해서 데스크톱의 웹브라우저에서도 OpenGL ES가 수행됩니다. 애플 iOS는 Metal이라는 차세대 그래픽 API도 이용하며, 안드로이드는 Vulkan이라는 차세대 그래픽 API도 이용합니다. 개임 개발자가 이런 다양한 그래픽 API를 일일이 직접 사용하여 게임을 만드는 것은 불가능하지는 않겠지만 상당히 많은 시간과 노력이 필요하게 됩니다. 유니티같은 상용 게임 엔진은 이러한 API들을 알아서 처리해 줍니다. 그러므로 개임 개발자는 DirectX API나 OpenGL API를 어떻게 사용해야 하는지 등을 몰라도 엔진의 기능만 사용하면 엔진이 알아서 이를 처리해 줍니다. DirectX나 OpenGL 용 소프트웨어를 따로 만들지 않아도, 게임 엔진에서 하나의 게임을 만들면 엔진이 알아서 각 플랫폼에 맞는 그래픽 API로 렌더링 처리를 해 주는 것입니다. 유니티 역시 이러한 게임 엔진 중 하나이며, 멀티플랫폼 엔진이 될 수 있는 것입니다. 이처럼, 유니티는 그래픽을 표현하기 위해 그래픽스 API들을 기반에 두고 있습니다. 그러므로 유니티에서 그래픽스를 최적화하려면, 그래픽스 API를 직접 이용할 필요는 없지만 그래픽스 API가 렌더링 처리하는 과정과 원리를 알고 있어야 합니다. 게임 엔진의 존재는 렌더링 처리에만 있지는 않습니다. 게임을 개발하다 보면 공통적으로 필요한 시스템 및 기능들이 있습니다. 씬의 하이어라키 구조, 애니메이션 시스템, 에셋 관리 시스템 등 게임 개발에 필수적인 시스템들을 제공해 주는 것 역시 게임 엔진의 주요 역할입니다. 앞서 설명한 그래픽스 API들은 이러한 필수적인 시스템까지 제공해주는 것은 아닙니다. 그래픽스 API들은 말 그대로 화면에 렌더링을 하기 위한 통로들만 제공해 줄 뿐 게임 개발에 필요한 시스템들은 제공하지 않습니다. 하지만 게임 엔진은 게임 개발에 필요한 시스템까지 제공해줄 수 있으며, 덕분에 개발자는 복잡한 시스템 개발에 시간을 허비하지 않고 게임 개발에만 집중할 수 있는 것입니다. 하지만 이러한 개발 시스템들에 대해 이해하면 개발을 더욱 수월하게 할 수 있을 것입니다. 자동차로 예를 들면, 만일 우리가 단순 출퇴근용으로 자동차를 운전한다면 자동차 내부 구조나 원리 등을 몰라도 운행을 하는데 큰 지장이 없습니다. 하지만 레이싱 경기를 하는 전문 카레이서라면 엔진의 원리와 자동차 내부 구조를 잘 알고 있어야 그 성능을 최대한 끌어내서 기록을 0.1초라도 단축시킬 수 있을 것입니다. 게임 엔진도 이와 마찬가지입니다. 게임 엔진을 사용하고 있더라도 엔진의 구동 메카니즘을 잘 알고 있어야 개발 과정에서 부딪하는 문제에 유연하게 대처할 수 있을 것입니다.
렌더링 파이프라인(Rendering Pipeline) / CPU 기반의 렌더링 vs. GPU 기반의 렌더링
GPU의 의미 존 폰 노이만은 2차 세계 대전 당시 맨해튼 프로젝트에서 '전자계산기의 이론 설계 서���'을 발표했습니다. 여기서 CPU, 메모리, 프로그램 구조를 갖는 프로그램 내장 방식의 컴퓨터 아이디어를 처음 제시하였고, 7년 후 케임브리지 대학교의 의뢰로 세계 최초의 프로그램 내장 방식 컴퓨터 EDSAC를 제작했습니다. 이를 폰 노이만 구조라고 부르기 시작했으며, 그 이후에 나온 컴퓨터는 모두 폰 노이만의 설계를 기본 구조로 디자인되고 있습니다. 아직 슈퍼 컴퓨터든 데스크탑이든 모바일 기기든 모두 기본적인 구조는 폰 노이만 구조에 기반을 두고 있습니다. 양자컴퓨터가 실용화되기 전까지는, 지금까지 그래왔듯 앞으로 만들어질 컴퓨터도 모두 폰 노이만 구조를 따르게 될 것입니다. 컴퓨터 공학 개론을 배우고자 이 이야기를 꺼낸 것은 아닙니다. 다양한 벤더(제조사)가 다양한 하드웨어를 제조하고 있어도 기본적인 핵심 구조는 다르지 않다는 것을 이야기하고자 한 것입니다. 그래픽스 렌더링 시스템 역시 마찬가지 입니다. 컴퓨터의 핵심 구동장치에 중앙 처리 장치 CPU(Central Processing Unit)가 존재하듯이, 그래픽을 처리하기 위한 그래픽 처리 장치 GPU(Graphic Processing Unit)가 존재합니다. 그래서 오늘날 그래픽 렌더링 처리를 위한 시스템은 GPU를 중심으로 구성된 그래픽 칩셋에서 이루어집니다. CPU가 GPU에 렌더링 명령을 보내면 GPU는 그 렌더링 작업을 수행합니다. 또한, CPU가 전용 메모리로부터 데이터를 읽어와서 처리하듯이 그래픽카드에는 GPU가 접근할 수 있는 GPU 메모리(VRAM, Video Random Access Memory)가 있습니다. 이 GPU 메모리에는 텍스처 및 메시 데이터 등 렌더링에 필요한 데이터들이 포함되어 있습니다. 렌더링 시점이 되면 GPU가 이 데이터들을 참고하여 그래픽 처리를 수행합니다. 렌더링의 결과를 저장하는 버퍼들 또한 이 메모리에 존재합니다. 이처럼 GPU라는 것은 폰 노이만 구조를 기반으로 하는 CPU를 보조하기 위한 시스템입니다. 유니티에서는 그래픽스 API를 이용해서 화면을 렌더링합니다. OpenGL, OpenGL ES, Metal 등 종류와 버전도 다양합니다. 그래픽스 API 간에는 그래픽스 렌더링 파이프라인(Graphics Rendering Pipeline)이라 불리는 공통적인 기반이 존재합니다. 그래픽스 데이터들은 렌더링 파이프라인을 거쳐서 최종적으로 화면에 렌더링되는 것이고, 렌더링 파이프라인은 리얼타임 렌더링의 주요 요소입니다. 그래픽스 API들은 렌더링 파이프라인을 기반으로 하고 있습니다. 렌더링 파이프라인을 간단히 이야기하면, '3D 이미지를 2D 레스터 이미지로 표현하기 위한 단계적인 방법'을 의미합니다. 그래픽스가 계속 발전하면서 렌더링 파이프라인에도 많은 변화가 있었지만 기본적인 구조는 변치 않았습니다. GPU의 역사가 CPU에 비해서 길지는 않습니다. 1983년 인텔에서 그래픽 컨트롤러 모듈을 처음으로 만들어내고, 1996년 3Dfx Voodoo를 통해서 그래픽카드가 도입되고, 1999년 엔비디아에서 최초의 GPU를 발표한 이후에 GPU라는 개념이 사용되기 시작했습니다. 3D 그래픽이 그래픽 카드 하드웨어의 가속을 받기 시작한 것은 20년도 되지 않았다는 것입니다. 그 이전에는 2D 렌더링만 가능했고, 3D 렌더링을 하더라도 하드웨어의 가속이 아닌 소프트웨어 연산으로 3D를 처리해야만 했습니다. 그래픽카드와 GPU가 도입되면서 하드웨어에서 3D 렌더링 가속을 할 수 있게 되었고, 자연스럽게 렌더링 파이프라인이라는 개념이 쓰이기 시작하게 된 것입니다. 이후, 렌더링 파이프라인은 공통적인 기술 기반이 되고 있으며 오늘날 리얼타임 그래픽스 렌더링의 성능을 잘 활용하려면 렌더링 파이프라인에 대하여 이해할 필요가 있는 것입니다. 위키백과(wikipidia)에서는 렌더링 파이프라인을 다음과 같이 설명하고 있습니다. "3차원 컴퓨터 그래픽스에서 그래픽스 파이프라인 또는 렌더링 파이프라인은 3차원 이미지를 2차원 래스터 이미지로 표현하기 위한 단계적인 방법을 말한다. 여기서 래스터(raster)란 컴퓨터에서 화상 정보를 표현하는 한 가지 방법으로 이미지를 2차원 배열 형태의 픽셀로 구성하고 이 점들의 모습을 조합, 일정한 간격의 픽셀들로 하나의 화상 정보를 표현하는 것을 말한다. 즉, 한 줄에서 연속된 픽셀들의 집합을 래스터라 한다. "
다시 설명하면, 오브젝트를 2D 이미지상으로 그리는 과정을 렌더링 파이프라인이라고 하는 것입니다. 한 개의 오브젝트가 렌더링될 때 갑자기 한번에 그려지는 것이 아니라, 일련의 과정을 거치면서 3D 데이터들이 2D 이미지로 구성되어 그려지는 것입니다. 앞서 언급했던 많은 데이터들이 렌더링 파이프라인 과정에서 하나의 오브젝트를 화면에 그려냅니다. 이 과정들이 반복되면서 오브젝트들이 모두 그려지면 화면에 띄울 수 있게 됩니다.
→ 유니티 공식 블로그
참고 영상
- (cf) The Heretic short film
The film uses every aspect of Unity’s High Definition Rendering Pipeline, features advanced effects created with the VFX Graph, and showcases Demo Team's first realistic digital human.
youtube
- (cf) ADAM
"Adam" is an award-winning real-time-rendered short film, written and directed by Veselin Efremov, and created by the Unity Demo team. It runs at 1440p on a GeForce GTX980. Learn more about the creation of "Adam", download the assets and the real-time version, and find complete credits list: http://unity3d.com/adam 
youtube
- (cf) Camera Stacking in Unity with URP! (Tutorial)
youtube
- (cf) Introducing Animation Rigging for 2019.3 - Unite Copenhagen
youtube
0 notes
Text
애니메이션 스타일 영상 제작 방법
① Live 2D, Cubism, Adobe After Effects 플러그인
② VRoid Studio 
③ Adobe사의 Photoshop, After Effects, Animate(이전 Flash Professional), Fuse (Beta) 등
④ blender 3D
⑤ MAYA, Houdini, Cinema 4D
⑥ 3ds Max 
Live 2D
Live2D is a technique of generating animated 2D graphics, usually anime-style characters, using layered, continuous parts based on a single illustration, without the need of animating frame-by-frame or creating a 3D model. Live2D is also the name of an eponymous animation software series employing the technique and the software' developer company, created by Japanese programmer Tetsuya Nakajo.
The software, and its underlying technique, enable users to animate their illustration by providing an illustration prepared in layered parts that constitute the original illustration, such as its eyes, mouth and arms, and stitch the parts on a skeleton to generate animation. The Live2D Ltd. provides the software and SDKs under commercial licenses and for free. Live2D has been used in a wide variety of video games, visual novels, virtual YouTuber shows, and other software. Well known examples includes FaceRig, Nekopara, Azur Lane, and Tsukino Mito, a virtual avatar and YouTube celebrity from Nijisanji's facial motion capture(mocap) app..
Live2D는 원화 자체를 변화시킴으로써 입체 표현을 실현합니다. 이 때문에 반드시 최소 한 장의 원화(일러스트)가 있어야 합니다. 원화는 움직이고자 하는 파트별로 구분해 둡니다. 원화를 PSD 데이터 내에서 파트별로 레이어를 구분해 저장하면, Cubism Editor 내에 레이어명과 표시 순서가 적용된 상태로 가져올 수 있습니다. 작성한 애니메이션은 영상 파일, GIF 애니메이션, 연속 스틸 이미지로 내보낼 수 있습니다. 또한 Cubism AE Plugin을 사용하면 Adobe® After Effects®software상에서 Live2D 파일을 사용할 수 있게 됩니다. 또한 앱 및 게임용 파일로 내보낼 수도 있어 장르를 불문하고 폭넓은 용도에 사용할 수 있습니다.
→ Live2D 사용 방법 자세히 보기
- Live2D Original Short Animation 
youtube
Unity 2020.1
youtube
youtube
youtube
→ Learn more
→ What's new in Unity 2020.1 
→ 2D Animation performance improved with Burst
VRoid Studio
일러스트 커뮤니케이션 서비스를 제공하는 픽시브(Pixiv)가 자신만의 3D 캐릭터를 쉽고 간단하게 만들 수 있는 Windows/Mac 용 애플리케이션 'VRoid Studio(이하 브이로이드)'를 공개했습니다.
VRoid Studio는 프리웨어 3D 모델링 툴이며, VR(Vitual Reality: 가상현실) 캐릭터를 만들 수 있는 프로그램입니다.
VRoid Studio is a 3D character maker that lets you use your imagination to easily create your own original characters.
유니티를 이용해 pmx파일로 바꿔서 * 'MikuMikuDance(미쿠미쿠댄스)'에서도 사용할 수 있다고 합니다.
vrm 파일을 유니티에서 불러올 수 있는 오픈소스 UniVRM를 이용해 유니티로 불러올 수 있습니다.
→ UniVRM 공식 사이트 바로가기
* MikuMikuDance
MikuMikuDance는 일본에서 개발 및 공개 중인 3D CG 동영상 작성 툴로 약칭은 MMD 입니다.
이름처럼 VOCALOID 하츠네 미쿠의 3D 모델을 조작할 수 있는 프로그램입니다.
이름은 VOCALOID의 대표격이라고 할 수 있는 하츠네 미쿠의 모델이 제일 먼저 나왔기 때문에 MikuMikuDance(미쿠미쿠댄스)라고 이름지어진 것이라고 합니다.
두 포즈 사이의 움직임을 자동으로 계산하여 주거나 오디오 파일과의 동기화가 가능하도록 편집이 가능하며, AVI 파일로의 출력 같이 부가적인 기능들을 지원하기 때문에 초보자라도 어느 정도 손쉽게 3D 동영상을 제작할 수 있다는 게 특징입니다.
이미 사실상의 오픈소스나 마찬가지이고 수많은 애드온 이펙트들이 개발되고 있으므로 제작자인 히구치가 개발을 중단한다 해도 누군가가 개발을 이어받을 가능성도 충분할 것으로 보입니다.
프리웨어 소프트이기 때문에 엔진 사용에 특별한 제약이 없다는 것이 장점이지만 부가 모듈 및 캐릭터 모델 등의 저작권은 별개입니다.
→ MMD 다운받기
(※ 단, 관련 컴포넌트를 다운받아야 MMD가 정상 작동합니다. )
→ MMD로 모션 제작하기 Tip
< VRoid Studio 사용방법에 관한 영상 >
- https://youtu.be/aHQ6KAJ8Kc8
- https://youtu.be/2bh9EPPn0QI
- https://youtu.be/uuFyJe6O_BY
- https://youtu.be/sq6BKB_GbTI
Hitogata
Hitogata는 가상 YouTuber위한 소프트웨어입니다. Web 카메라에서 얼굴을 인식하여 3D 모델에 움직임을 반영 할 수 있습니다. vroid로 저장한 파일을 Hitogata로 그대로 불러와 사용할 수 있습니다. 
Vocaloid Promotion Video Project
3D 캐릭터 리깅하고 춤출 수 있도록 만드는 프로그램 입니다. VPVP를 성공적으로 사용하기 위해서는 아래 3가지 프로그램이 필요합니다. 
→ Unity → UniVRM → VRMtoPMXExporter
모션 트래킹 참고 영상
- https://youtu.be/vjG6EOZ1EGg
0 notes
Text
증강 / 가상현실 비디오
가상현실 (Virtual Reality, VR)
_
가상 현실
컴퓨터로 만들어 놓은 가상의 세계에서 사람이 실제와 같은 체험을 할 수 있도록 하는 최첨단 기술을 말한다. 머리에 장착하는 디스플레이 디바이스인 HMD를 활용해 체험할 수 있다. 인공현실(artificial reality), 사이버공간(cyberspace), 가상세계(virtual worlds)라고도 한다. 가상현실은 의학 분야에서는 수술 및 해부 연습에 사용되고, 항공ㆍ군사 분야에서는 비행조종 훈련에 이용되는 등 각 분야에 도입, 활발히 응용되고 있다. 가상현실(VR·virtual reality)과 현실 세계에 가상정보를 더해 보여주는 기술인 증강현실(AR·augmented reality)을 혼합한 기술은 혼합현실(MR·mixed reality)이라고 한다. VR과 AR, MR은 모두 실제로 존재하지 않은 현실을 구현해 사람이 이를 인지할 수 있도록 하는 기술이라는 점에서 공통점이 있다. VR과 AR, MR은 모두 실제로 존재하지 않은 현실을 구현해 사람이 이를 인지할 수 있도록 하는 기술이라는 점에서 공통점이 있다. 다만 AR은 실제 현실에 가상의 정보를 더해 보여 주는 방식이고, VR은 모두 허구의 상황이 제시된다는 점에서 차이가 있다. MR은 AR과 VR을 혼합해 현실 배경에 현실과 가상의 정보를 혼합시켜 제공하는데, 대용량 데이터를 처리할 수 있는 기술이 필요하다.
* HMD(head mounted display)
VR 체험을 위해 사용자가 머리에 장착하는 디스플레이 디바이스로, 외부와 차단한 후 사용자의 시각에 가상세계를 보여주는 역할을 한다. 눈앞에 디스플레이가 오도록 얼굴에 쓰는 형태로 마이크, 스테레오 스피커를 비롯해 여러 센서 등이 탑재돼 있다. VR 헤드셋에 스마트폰을 탑재해 스마트폰 패널을 활용하는 기기는 다이브라고 부른다. VR 기기 패널에 그물망처럼 격자가 보이는 현상으로, 마치 모기장처럼 보인다고 해서 모기장 현상이라고 부른다. 가상현실 헤드셋은 스마트폰 화면을 확대하는 방식을 사용하기 때문에 화면의 선명도가 떨어지는데, 이 때 픽셀 간의 간격이 눈에 보이는 모기장 현상이 발생한다.
참고: [네이버 지식백과] 증강현실(AR) - 현실과 가상의 절묘하고 신기한 조화 (용어로 보는 IT, 이문규, IT 동아)
_
가상 현실과 디지털 게임
가상 현실(virtual reality)은 ‘가짜의 혹은 실제가 아닌’의 의미를 지닌 가상(virtual)과 실제적인 사건이나 상황을 뜻하는 현실(reality)이라는 모순된 의미의 단어가 결합된 것이다. 가상 현실은 재론 래니어(Jaron Lanier)가 고안한 용어로 알려져 있지만, 프랑스의 극작가이자 연극 감독이었던 앙토넹 아르토(Antonin Artaud)가 인간의 오감에 소구하는 극장에 대해 언급하면서 1938년에 이미 가상 현실(la réalite virtuelle)이라는 표현을 사용했다고 한다(Davis, 1998). 이는 가상 현실이 컴퓨터를 중심으로 한 첨단 기술에 의해서만 이루어지는 것이 아님을 시사한다. 그러나 가상 현실에 대한 초기 논의는 가상 현실 장치를 중심으로 시작되었다.
즉, 가상 현실은 기술적, 하드웨어의 집합체로 설명되었다. 데이터 장갑이나 영상을 인식하는 헤드마운트 디스플레이 장치, 사물의 움직임을 감지하는 장비 등이 그것으로, 경험보다는 테크놀로지에 집중한 것이다. 기술로서 가상 현실은 실제 현실이 아닌 기술로 모사된 환경을 마치 현실로 느끼도록 하는 감각 경험을 제공하는 기술 체계다. 이러한 설명에서 ‘가상’이라는 말은 불가피하게 모조 혹은 가짜의 뜻을 가질 수밖에 없다. 물질적으로 실재하지 않는 대상을 실재하는 것처럼 인지하고 경험하게 만들어 주기 때문이다.
한편 가상 현실 경험을 강조하는 논의(Steuer, 1992)는 가상 현실을 하드웨어나 테크놀로지의 집합체보다는 특수한 형태의 체험, 즉 원격현전(telepresence)을 경험하는 실제적 혹은 모사된 환경으로 정의한다. 인간의 인지가 커뮤니케이션 테크놀로지에 의해 중재될 때, 인간은 두 개의 분리된 환경을 동시에 인지하게 되는데, 하나는 실제로 존재하는 물리적 환경 그리고 다른 하나는 미디어를 통해 주어지는 환경이다. 원격현전은 이 중 후자를 묘사하기 위해 사용된다. 즉, 원격현전은 실제 환경이 아니라 일종의 중재된 환경 속에서 실재감을 느끼는 것이다.
이와 관련해 가상 현실의 특징으로, 이용자가 마우스를 조작해 화면 속 사물을 움직이는 등의 상호 작용성, 몰입, 여러 사람이 동시에 같은 가상 세계로 들어갈 수 있는 네트워크로 연결된 커뮤니케이션, 로봇 등을 이용해서 실제 세계에서 거리상 멀리 떨어져 있는 대상에게 물리적 영향을 미치는 원격현전 등이 제시된다(Heim, 1993).
디지털 게임은 그러한 가상 현실 장치가 가장 구체적으로 활용되는 영역이다. 무엇보다도 디지털 게임은 게이머가 돌아다닐 수 있는 가상의 공간으로 제시된다. 게이머는 자유롭게 게임 속 허구적 공간을 탐사할 수 있으며, 다른 아바타들과 상호교류하며 아이템과 같은 게임 속 사물들을 움직이고 조작할 수 있다. 또한 디지털 게임은 상호 작용성을 기반으로 게이머에게 게임에 대한 통제감을 제공해 가상 현실 경험을 가능하게 한다. 게이머의 가상 현실 경험은 게임 자체를 현실 세계와 유사해 보이도록 해 주는 그래픽, 사운드, 시점, 구조 등을 통해서도 만들어진다. 이로 인해 가상 현실 경험은 단순히 게이머의 감각적 경험이라기보다는 그것을 인식하는 데서 이루어지는 것이라 할 수 있다.
인간은 현실 속에서 항상 특정한 시간적, 공간적 위치를 점하며, 그 속에서 형성되는 사회적 정체성을 기반으로 하고 있다. 그러나 디지털 게임과 같은 가상의 환경은 현실의 시간과 공간을 벗어날 탈맥락적인 세계다. 그러한 가상공간이 연출하는 허구의 세계는 더 이상 가짜의 것이 아니라 물리적인 현실 세계와는 별도로 존재하는 또 다른 현실 세계라 할 수 있다.
참고: [네이버 지식백과] 게임 스토리텔링 (디지털게임이란무엇인가, 2014. 4. 15., 전경란)
증강현실 vs. 가상현실
가상현실은 자신(객체)과 배경·환경 모두 현실이 아닌 가상의 이미지를 사용하는데 반해, 증강현실(Augmented Reality, AR)은 현실의 이미지나 배경에 3차원 가상 이미지를 겹쳐서 하나의 영상으로 보여주는 기술이다. 증강현실은 또한 혼합현실(Mixed Reality, MR)이라고도 하는데, 비행기 제조사인 ‘보잉’ 사에서 1990년경 비행기 조립 과정에 가상의 이미지를 첨가하면서 ‘증강현실’이 처음으로 세상에 소개됐다.
증강현실( Augmented Reality, AR)
컴퓨터 프로그래밍으로 영상 및 사진을 보여줄 때 컴퓨터가 만들어 낸 유용한 정보를 이미지에 겹쳐서 결합하거나 늘리는 과정. 증강 현실을 가장 먼저 적용한 것은 군용 항공기와 전차 조종사가 머리에 쓰는 형태의 컴퓨터 화면 장치, 즉 전방 표시 장치(HUDs)인 것으로 알려져 있다. 계기판 형태의 전방 표시 장치로 일원 중 한 명이 실제의 외부 환경을 살펴보게 되면 조종석 덮개나 뷰파인더 위로 같은 정보가 나타난다. 속도가 더 빨라진 컴퓨터 프로세서는 전방 표시 장치를 이용해 정보 디스플레이와 실시간 영상이 결합하는 것을 가능하게 했다. 초창기에 이러한 형태의 증강 현실을 사용한 두 가지 유명한 본보기가 있다. 1990년대 중반 폭스 방송국이 최초로 시도한 것으로, 하나는 텔레비전 영상에 노란색의 퍼스트 다운 줄무늬를 겹쳐 보여 준 미국 미식 축구 경기장 모습이었고, 다른 하나는 텔레비전 시청자가 하키 퍽과 골프 공이 날아가는 경로를 따라가며 볼 수 있도록 텔레비전 영상에 추가한 가상의 비행 경로였다.
Tumblr media
증강 현실은 전자식 1인 사격 게임(EFS 게임)에서 게임 참가자의 시각에 환경 정보와 건강 정보 및 그 외의 정보를 추가해서 보여 주기 위해 흔히 사용된다. 몇몇 군대가 실제 군인들이 사용하는 개인용 헤드 마운트에 오버레이를 추가하는 실험을 했다. 또한 증강 현실을 스마트폰에 적용함으로써 장치의 뷰파인더나 전자 표시 장치를 통해 보여지는 특정 인터넷 사이트에서 건물 주소와 부동산 동향, 소매 판매 할인, 식당 이용 후기 같은 정보를 볼 수 있는 기능이 개발되었다. 그러한 정보들은 상업적인 오픈 소스 데이터베이스와 연계된 위치 파악 시스템(GPS)을 통해 제공될 수 있다. 미래를 예측하는 사람들은 가벼운 선글라스에 정보 표시를 추가할 수 있는 단계로 나아가기를 희망한다. 또한 소셜 네트워킹 지지자들은 모든 종류의 개인 식별 태그가 정보 표시에 추가될 것으로 기대한다.
증강현실은 내부적으로 대단히 복잡하고 어려운 영상 기술이지만, 기본적으로는 다음과 같은 원리와 순서로 작동한다. 증강현실 기술을 적용하기 위해서는 몇 가지 필요한 게 있는데, 지리/위치 정보를 송수신하는 GPS 장치 및 중력(기울기+전자나침반) 센서(또는 자이로스코프 센서), 이 정보에 따른 상세 정보가 저장된 위치정보시스템(인터넷 연결 필요), 그 상세 정보를 수신하여 현실 배경에 표시하는 증강현실 애플리케이션, 마지막으로 이를 디스플레이로 출력할 IT 기기(스마트폰, 태블릿 PC) 등이다.
스마트폰을 통한 증강현실 체험
스마트폰 사용자라면 증강현실 기능을 활용해 색다른 경험을 할 수 있다. 예를 들어, 친구가 보고 있는 책의 자세한 정보가 궁금하다면 스마트폰 내 증강현실 애플리케이션을 실행한 다음, 카메라 화면으로 책 표지를 비추거나 셔터로 찍으면 된다. 그러면 해당 애플리케이션이 이 화면 정보를 읽어 들여 인터넷 데이터베이스 등에서 책 제목과 저자, 출판사, 서평 평점, 가격 등을 화면에 보여준다. 따라서 당연히 3G/4G 이동통신 또는 와이파이로 인터넷 접속이 가능한 상태여야 한다. 희귀서가 아닌 이상 대부분의 책 정보를 볼 수 있다.
위와 같이 책 정보를 알았고 구매하기로 마음 먹었다. 인터넷으로 주문할 수도 있지만 아무래도 인근 서점을 찾아 직접 훑어 보고 구매하려 한다. 이때는 증강현실을 이용한 지도 검색 애플리케이션을 활용하면 된다. 스마트폰 또는 태블릿 PC의 GPS 정보를 수신하여 현재 자신의 위치를 파악한 후 가장 가까운 거리에 있는 서점을 찾아 주기 때문이다.
아울러 인근 서점까지 가는 방법도 증강현실 애플리케이션을 통해 자세히 안내 받을 수 있다. 자동차 이동 경로나 대중교통 탑승·환승 정보는 물론, 도보 이동 시 가상 내비게이션 기능도 제공까지 제공된다. 즉 스마트폰 카메라를 길거리를 비추면 증강현실 애플리케이션이 가는 방향을 가상의 화살표 등으로 표시해 준다.
위의 사례는 스마트폰 사용자라면 지금 이 순간에도 언제 어디서든 즉시 체험할 수 있는 증강현실의 가장 일반적인 형태다. 이 같은 실생활뿐 아니라 증강현실 기술이 적용되는 분야는 매우 다양하다. 특히 요즘에는 광고·홍보 분야에서도 각광을 받고 있다. 자사의 제품에 가상의 이미지를 씌워 독특한 분위기를 연출할 수 있기 때문이다. TV 방송 분야에도 적극 활용되고 있다. 기상 캐스터 뒤로 보이는 가상 기상도, 정보 그래프 등이 대표적인 예다. 이후 가상 디스플레이 기술, 3D 입체 영상 기술 등이 더욱 발전하면 증강현실이 적용될 수 있는 사례는 대단히 넓어지게 될 것이 분명하다.
여기까지 보면, 우리는 증강현실을 체험하기 위해서는 어떤 기기를 이용해야만 한다. 당장 우리가 사용할 수 있는 기기는 스마트폰이다. 그 말은 즉, 현재 거의 대부분의 사람들이 스마트폰 유저이기 때문에 누구든지 증강현실을 이용할 수 있다고 볼 수 있다. 하지만 우리는 당장 증강현실을 이용하기 위해 스마트폰 외 다른 방법을 찾기가 힘들다. 
진보하는 증강현실 기술
2014년 기준 우리나라 스마트폰 사용자는 4,000만 명을 넘어섰다. 이에 따라 증강현실 기술을 기반으로 하는 산업군이 더욱 활발하게 움직일 것으로 예측된다. 외국의 시장조사업체인 주니퍼 리서치(Juniper Research)는 ‘증강현실 시장이 2014년까지 7억 달러 이상의 규모로 성장할 것’이라고 예상한 바 있다. 이런 규모로 성장한다면 머지 않아 스마트폰의 한계를 벗어난 새로운 형태의 증강현실 기술이 탄생할 수도 있을 것으로 보인다.
국제 학술 콘퍼런스인 ‘TED’에서 공개된 ‘식스센스(Six-sense)’라는 기기가 근미래 증강현실의 청사진을 정확하게 보여주었다는 평가로 화제가 됐다. 이 기기는 스마트폰 정도의 크기에 빔프로젝터 기능이 있어 공간에 영상을 투사하거나, 주변의 사진 또는 영상을 받아 들여 그에 해당하는 상세 정보를 보여준다. 이후 양손가락으로 이 화면을 제어할 수 있어 허공에서 마치 터치스크린을 조작하는 듯한 움직임이 가능하다. 영화 ‘마이너리티 리포트’의 한 장면을 연상케 하는 고도의 증강현실 기술이다. 말마따나 영화에서 보던 기술이 점차 현실이 되고 있는 것이다.
이후 증강현실 기술을 활용한 기기로 가장 주목 받은 것이 구글 글래스다(Google Glass). 구글이 시범적으로 개발, 공개한 이 스마트 안경은 일반 안경처럼 눈에 착용하며, 스마트폰처럼 구글 안드로이드 운영체제가 내장되어 안경을 통해 인터넷 검색이나 사진 촬영, 길 안내, SNS 사용 등이 가능하다. 구글 글래스는 기본적으로 음성 명령으로 작동하며, 한쪽 렌즈에 화면 출력용 프리즘에 장착돼 있어 사용자 눈 앞으로 약 25인치 크기의 가상 화면이 나타난다. 
한편 증강현실 기술로 인한 맹점도 배제할 수 없다. 일상 생활을 편리하고 윤택하게 하는 건 확실하지만, 가상 세계에 완전히 매혹되어 현실과 가상을 구분하지 못하는 상황이 발생할 수도 있다. 이외에 현재까지의 증강현실 기술은 다분히 광고형·홍보형 콘텐츠에 집중되고 있기 때문에 향후에도 단발적인 관심끌기 위주로만 흘러가지 않을까 하는 우려도 없지 않다.
참고:  가상현실(VR) (시사상식사전, pmg 지식엔진연구소)
참고 예시: 
- @haero_tv
- @REK0DE
- @daveliquidlizard
- Goro Fujita Art
1 note · View note
Text
Max cooper
Max cooper의 뮤직비디오를 보면 현실적이면서도 비현실적인 영상들을 많이 볼 수 있다. 마치 에셔의 작품을 영상으로 옮겨놓은 듯한 비디오, 그리고 사실적으로 표현된 비현실적인 장면을 통해 사람들이 새로운 경험을 할 수 있도록 한다. 처음부터 끝까지 빠져드는 듯한 몰입감이 들게하는 영상을 제작하는 것은 쉽지 않은데, Max cooper의 뮤직비디오는 긴장감과 몰입감을 유발하며 관람자로 하여금 새로운 시각을 경험할 수 있도록 한다.
Max Cooper - Repetition (Official Video By Kevin McGloughlin) 
youtube
0 notes
Text
The Music Video of the1975  created by Jon Emmony
The Music Video of the1975  created by Jon Emmony
'the1975' 밴드의 뮤직 비디오들 중에서는 다양한 디지털 요소를 활용하여 실험적인 시도를 한 비디오가 많다.
의도적으로 변형한 이미지, 오류가 발생한 듯한 이미지 등 전례없는 새로운 화면을 연출한 것을 볼 수 있다.
실사 혹은 디지털 공간 안에서 다른 디지털적인 요소들과 어우러져 다양하게 연출되는 장면들 뿐만 아니라, 이와 적절하게 어우러진 키네틱 타이포도 참고할 만한 요소다.
the1975 - People
youtube
the1975 - Frail State Of Mind
youtube
the1975 - Streaming
youtube
0 notes
Text
NCTmentary
NCTmentary EP1. Dream Lab
- https://youtu.be/TrTdkaklKqg
NCTmentary EP2. Switch
- https://youtu.be/iKFIMhjP0iw
NCTmentary EP3. Empathy
- https://youtu.be/7mOjD2I_qMw
NCTmentary EP4. Synchronization of Dreams
- https://youtu.be/lYUQlWdVfTk
NCTmentary EP5. Back to the Reality
- https://youtu.be/Bb-5Q70oDA4
0 notes
Text
CGI Animated Short Film
**Award Winning** CGI Animated Short Film: "Green Light" by Seongmin Kim | CGMeetup
youtube
CGI Animated Short Film HD "Little Darling" by Big Cookie Studios | CGMeetup
youtube
0 notes
Text
3D 컴퓨터 그래픽 뮤직비디오
The Music Video created by Jason Ebeyer
MV of Troye Sivan
Jason Ebeyer and Australian pop star Troye Sivan collaborated to create the lyric video and single artwork for Troye’s 2018 track, “Bloom”. The animation features a stylized 3D reworking of Troye Sivan drifting and floating within a CG environment, representing the feelings of euphoria.
vimeo
MV of Bebe Rexha 
Jason collaborated with fellow 3D artist Randy Cano to create the launch package for Bebe Rexha’s debut album “Expectations”. The project consisted of Jason and Randy creating a lyric video for each track off the album (10 videos in total)
youtube
0 notes