
엔비디아에서 2D 이미지를 갖고 3D로 렌더링하는 프레임 워크를 발표할 예정이다.
엔비디아 연구원들이 해당 프레임 워크를 준비하게된 이유로는 다음과 같다. 현재 컴퓨터를 가지고 3D 렌더링 혹은 모델을 읽고난 후 2D
화면으로 렌더링 하는 것은 문제없이 빠르게 진행이 가능하다. 하지만 반대의 작업인 2D 이미지를 불러온 후 3D로 모델로 만드는 것은 많이 힘든 작업이었다.
이러한 문제를 NVIDIA가 Ai를
이용한 머신 러닝 기술을 도입하며 가능하게 될것으로 예측되고 있다.
엔비디아가 공식 블로그에 밝힌 정보에 따르면 Ai를 사용하여 2D 이미지 정보를 3D 객체로 정확하게 변환하는 렌더링 프레임 워크를 만들었으며
이를 DIB-R로 명칭했다. 실제 Ai 머신 러닝 프레임 워크인 DIB-R를 교육한 후
2D 이미지의 조류 이미지를 넣은 후 3D 렌더링 해본결과 위의 사진과같은 결과를
얻을 있었다고 밝혔다.
즉 2D 이미지만을 갖고도 3D로 적절한 모양과, 질감으로 3D 묘사를 할 수 있게
되었으며 해당 기술은 미래 지향 기술로 잘 알려진 로봇 공학에 사용될 예정이라
전했으며, 해당 렌더링 프레임 워크의 경우 자사의 NVIDIA V100(데이터 센터용) GPU는
프레임 워크를 교육하는데에 있어 약 2일이 소요되지만 별도의 NVIDIA 그래픽카드가
없이 해당 교육을 진행할 경우 몇 주가량이 소모된다고 덧붙여 말했다.
끝으로 머신 러닝 프레임 워크의 기반은 NVIDIA의 가속 소프트웨어인 PyTorch를 기반으로 했으며 금번
NVIDIA의 공식 블로그에 기재되어 있는 프레임 워크는 다가올
NeurlIPS컨퍼런스에서 발표될 예정이다.