엔비디아, GRC2026에서 '신경 텍스처 압축(NTC)' 기술 선보여
김하영 기자
hashe@metax.kr | 2026-04-13 07:00:00
저장 중심에서 생성 중심으로의 이동
[메타X(MetaX)] 그래픽 기술의 발전은 오랫동안 하나의 방향을 따라왔다. 더 선명한 이미지를 만들고, 더 많은 데이터를 담는 방식이다. 해상도는 지속적으로 높아졌고, 텍스처의 정밀도 역시 그에 맞춰 확장되어 왔다. 이 과정에서 시각적 완성도는 분명히 향상됐지만, 그 대가 역시 명확했다. 더 큰 용량, 더 높은 메모리 사용량, 그리고 점점 늘어나는 로딩 부담이다.
특히 고해상도 텍스처는 그래픽 품질을 결정짓는 핵심 요소지만, 동시에 시스템 자원을 가장 직접적으로 압박하는 요인이기도 하다. 해상도가 올라갈수록 VRAM 사용량은 급격히 증가하고, 이는 곧 하드웨어 사양의 상향을 요구한다. 결국 그래픽 품질을 유지하거나 개선하기 위해서는 더 많은 자원을 투입해야 하는 구조가 반복되어 왔다.
문제는 이 방식이 더 이상 확장 가능한 해법이 아니라는 점이다. 저장 장치와 메모리는 계속 발전하고 있지만, 콘텐츠의 증가 속도를 따라가기에는 한계가 있다. 특히 라이브 서비스나 오픈월드처럼 방대한 자산을 전제로 하는 구조에서는, 단순히 데이터를 더 많이 담는 방식만으로는 대응하기 어려운 지점에 도달했다.
이 지점에서 드러나는 것은 기술의 부족이 아니라 설계 방식의 한계다. 그래픽의 문제는 더 이상 성능이 부족해서가 아니라, 모든 것을 미리 만들어 저장해두는 방식 자체에서 비롯된다. 지금의 그래픽 기술은 더 이상 “얼마나 담을 수 있는가”라는 질문만으로는 설명되지 않는 단계에 들어섰다.
텍스처를 ‘데이터’가 아닌 ‘모델’로 다루는 접근
2026년 4월, NVIDIA GTC 2026에서 공개된 신경 텍스처 압축(NTC, Neural Texture Compression)은 그래픽 처리 방식의 전제를 바꾸는 시도다. 이 기술의 핵심은 단순히 데이터를 더 효율적으로 줄이는 데 있지 않다. 그보다 중요한 것은, 텍스처를 저장된 결과물이 아니라 복원 가능한 형태로 다루기 시작했다는 점이다.
기존의 텍스처 압축은 이미 만들어진 이미지를 얼마나 손실 없이 줄일 수 있는가에 집중해왔다. 즉, 전제는 언제나 동일했다. 완성된 데이터를 유지한 채, 그것을 덜 차지하게 만드는 방식이다. 반면 NTC는 이 전제를 거꾸로 뒤집는다. 애초에 완성된 이미지를 그대로 보관하지 않고, 텍스처를 표현할 수 있는 최소한의 정보만 남긴다. 그리고 실제로 화면에 필요해지는 순간, 그 정보를 기반으로 텍스처를 다시 구성한다.
이 차이는 단순한 압축률의 문제가 아니다. 기존 방식이 “결과를 저장하고 전달하는 구조”였다면, 이 방식은 “표현을 저장하고 결과를 만들어내는 구조”에 가깝다. 텍스처는 더 이상 고정된 이미지 파일이 아니라, 조건에 따라 재구성되는 출력값이 된다.
이 접근은 그래픽 자산의 개념 자체를 바꾼다. 과거에는 텍스처가 하나의 완성된 파일이었고, 그 품질은 해상도와 용량으로 정의됐다. 이제는 그 기준이 달라진다. 텍스처는 상태와 맥락에 따라 복원되는 ‘과정’에 가까워지고, 품질은 저장된 데이터의 크기가 아니라 복원 과정의 정확도와 효율에 의해 결정된다.
이 변화는 실제 수치에서도 드러난다. GTC 시연에서는 약 6.5GB 수준의 텍스처 데이터가 1GB 미만으로 축소되면서도, 시각적 품질은 거의 유지되는 결과가 제시됐다. 이는 단순한 최적화의 범주를 넘어, 그래픽 자산을 다루는 방식 자체가 바뀌고 있음을 보여준다.
왜 지금 이 전환이 가능해졌는가
이러한 전환이 지금에서야 가능해진 데에는 분명한 기술적 배경이 있다. 핵심은 그래픽 처리 환경 자체가 이미 ‘연산 중심 구조’로 이동하고 있었다는 점이다. GPU는 더 이상 단순한 렌더링 장치가 아니라, 대규모 병렬 연산을 수행하는 AI 인프라로 확장되어 왔다. 특히 텐서 코어와 같은 전용 연산 유닛의 도입은, 실시간으로 복원과 생성을 수행할 수 있는 기반을 마련했다. 과거에는 오프라인에서만 가능했던 연산이, 이제는 실시간 그래픽 파이프라인 안으로 들어오기 시작한 것이다.
이 변화는 갑작스럽게 등장한 것이 아니다. 이미 업스케일링(DLSS)이나 프레임 생성과 같은 기술을 통해, 그래픽의 일부는 “그려내는 것”이 아니라 “추정하고 생성하는 것”으로 바뀌고 있었다. 즉, 화면의 모든 픽셀을 직접 계산하는 대신, 일부는 학습된 모델을 통해 보완하고 복원하는 방식이 점진적으로 자리 잡아 왔다.
신경 텍스처 압축은 이러한 흐름 위에서 등장한 기술이다. 다시 말해, 완전히 새로운 접근이라기보다 이미 진행 중이던 변화가 텍스처 영역까지 확장된 결과에 가깝다. 이 지점에서 중요한 것은 기술의 등장 자체가 아니라, 그래픽 처리 방식이 데이터 중심에서 연산 중심으로 이동해온 시간의 축이다. 지금의 전환은 그 축 위에서 자연스럽게 이어진 결과다.
물론 이 전환에는 분명한 대가가 따른다. 저장을 줄이는 대신, 그 부담은 실행 시점의 연산으로 이동한다. 즉, 그래픽을 구성하는 비용이 “저장”에서 “계산”으로 재배치되는 구조다. 이로 인해 GPU의 역할도 함께 바뀐다. 더 많은 데이터를 빠르게 불러오는 장치에서, 필요한 결과를 실시간으로 생성하고 복원하는 장치로 기능이 확장된다.
결국 여기서 중요한 것은 하나다. 그래픽 자산이 더 이상 완성된 결과물이 아니라, 필요할 때마다 생성되고 복원되는 정보로 바뀌고 있다. 따라서 텍스처는 저장되는 대상이 아니라, 조건에 따라 다시 만들어지는 대상이 된다.
이 변화는 겉으로는 조용하지만, 구조적으로는 분명하다.
그래픽 기술은 더 이상 얼마나 많이 담을 수 있는가에 머물지 않는다. 이제는 얼마나 적게 저장하고, 그 위에서 얼마나 정확하게 다시 만들어낼 수 있는가로 이동하고 있다.
사양 경쟁에서 구조 경쟁으로, 그래픽 기술의 기준이 바뀌는 지점
이 변화는 단순한 최적화 기술로 끝나지 않는다. 중요한 것은 그래픽의 한계를 규정하던 기준 자체가 바뀌고 있다는 점이다. 그동안 그래픽 기술은 비교적 명확한 축 위에서 발전해왔다. 더 큰 메모리, 더 높은 대역폭, 더 빠른 GPU. 성능의 기준은 곧 하드웨어 사양이었고, 그래픽 품질 역시 그 위에서 결정되었다.
그러나 신경 기반 렌더링과 텍스처 압축 기술이 제시하는 방향은 이 전제를 흔든다. 이제 중요한 것은 얼마나 많은 데이터를 담을 수 있는가가 아니라, 어떤 방식으로 데이터를 표현하고 결과를 만들어내는가다. 그래픽의 성능은 저장된 정보의 양이 아니라, 그 정보를 얼마나 효율적으로 재구성할 수 있는지에 의해 결정되기 시작한다.
자산 제작에서 표현 설계로 이동하는 파이프라인
이 변화는 텍스처에만 머물지 않는다. 재질과 조명, 나아가 일부 기하 정보까지도 점차 고정된 데이터가 아니라 계산 가능한 형태로 전환되고 있다. 이는 그래픽을 구성하는 요소들이 개별 자산이 아니라, 하나의 연산 체계 안에서 유기적으로 만들어지는 방향으로 이동하고 있음을 의미한다.
이러한 흐름은 기술의 영역에만 머물지 않는다. 제작 방식에도 직접적인 영향을 미친다. 지금까지 게임 개발은 고해상도 자산을 얼마나 정교하게 만들어내느냐에 크게 의존해왔다. 아티스트는 완성된 결과물을 제작하고, 그 품질은 곧 데이터의 크기와 디테일로 이어졌다. 더 많은 정보를 담을수록 더 좋은 결과가 나온다는 전제가 자연스럽게 받아들여져 왔다.
그러나 자산이 고정된 결과물이 아니라 복원 가능한 형태로 전환되기 시작하면, 제작의 기준 역시 달라진다. 중요한 것은 더 많은 데이터를 만드는 것이 아니라, 어떤 방식으로 표현이 구성되고 생성되도록 설계할 것인가다. 이는 단순한 제작 효율의 문제가 아니라, 파이프라인 전체의 구조를 바꾸는 변화다. 자산 제작 중심이던 흐름은 점차 표현 설계와 시스템 중심의 구조로 이동하게 된다.
이 과정에서 아티스트의 역할 역시 변한다. 완성된 결과물을 만드는 데서, 결과가 만들어지는 조건과 방식을 설계하는 쪽으로 무게가 이동한다. 즉, “무엇을 만들 것인가”보다 “어떻게 만들어지도록 할 것인가”가 더 중요한 질문이 된다.
결국 게임 개발은 점점 더 결과물을 생산하는 작업에서, 결과가 생성되는 구조를 설계하는 작업으로 이동하고 있다. 그리고 이 변화는 지금 그래픽 기술이 향하고 있는 방향과 정확히 같은 축 위에 놓여 있다.
이 지점에서 경쟁의 기준 역시 달라진다. 이전에는 더 강한 하드웨어를 확보하는 것이 곧 경쟁력이었다면, 이제는 같은 자원 안에서 얼마나 효율적으로 결과를 만들어낼 수 있는지가 더 중요한 문제가 된다. 다시 말해, 경쟁의 축은 “성능의 절대값”에서 “구조의 효율성”으로 이동하고 있다.
이러한 변화는 단순히 기술 선택의 문제가 아니라, 설계의 관점 자체를 바꾼다. 그래픽은 더 이상 완성된 결과를 어떻게 잘 보여줄 것인가의 문제가 아니라, 그 결과를 어떤 구조 위에서 만들어낼 것인가의 문제로 재정의된다. 이 과정에서 하드웨어 역시 의미가 달라진다. 더 많은 데이터를 처리하는 장치가 아니라, 이러한 구조를 안정적으로 실행할 수 있는 기반으로 기능하게 된다.
결국 이 변화는 그래픽 기술의 진보라기보다, 그래픽을 바라보는 방식의 전환에 가깝다.
우리는 오랫동안 더 많은 데이터를 담고, 더 높은 사양으로 밀어붙이는 방식으로 현실에 접근해왔다. 그러나 이제 그 방식은 한계에 도달했고, 대신 다른 질문이 등장하고 있다. 얼마나 많이 담을 수 있는가가 아니라, 얼마나 적은 정보로 같은 결과를 만들어낼 수 있는가라는 질문이다.
이 질문이 바뀌는 순간, 경쟁의 기준도 함께 바뀐다. 사양은 더 이상 목표가 아니라 조건이 되고, 기술의 중심은 구조로 이동한다.
그래픽의 미래는 더 이상 ‘쌓아 올리는 기술’이 아니다.
점점 더, 덜 가지고 더 만들어내는 기술에 가까워지고 있다.
[METAX = 김하영 기자]
[ⓒ META-X. 무단전재-재배포 금지]