Z-앵글 메모리: AI 및 HPC를 위한 차세대 적층형 DRAM

대규모 언어 모델, 생성형 AI, 고성능 컴퓨팅(HPC)의 급속한 성장으로 인해 기존 메모리 아키텍처는 물리적 한계에 다다랐습니다. 높음 대역폭 메모리(HBM) 는 오랫동안 AI 가속기의 표준으로 자리 잡았지만 스택 높이와 밀도가 높아짐에 따라 용량, 전력 소비, 열 관리에서 병목 현상이 증가하고 있습니다.
인텔과 소프트뱅크 자회사인 Saimemory, ZAM에서 파트너십 체결
2026년 2월 초, Z-앵글 메모리(ZAM) 은 이러한 문제를 해결하기 위해 특별히 고안된 솔루션으로 등장했습니다. 인텔과 소프트뱅크의 전액 출자 자회사인 SAIMEMORY가 공동 개발한 ZAM은 데이터 집약적 워크로드를 위한 메모리 확장을 재정의하도록 설계된 차세대 스택형 DRAM 아키텍처입니다.

Z-앵글 메모리란?

Z-앵글 메모리(ZAM) 은 기존 HBM의 확장 한계를 극복하기 위해 구축된 3D 적층형 DRAM 아키텍처입니다. 이 아키텍처의 이름은 다음과 같은 혁신에서 유래했습니다. 대각선, Z자형 상호 연결 토폴로지 현재 모든 HBM 설계에 사용되는 수직 관통 실리콘 비아(TSV)를 대체할 수 있습니다.
차세대 ZAM 메모리 프로토타입 뉴 앵글 아키텍처 Z-앵글 메모리: AI 및 HPC를 위한 차세대 적층형 DRAM
신호를 위아래로 일직선으로 라우팅하는 기존 메모리 스택과 달리 ZAM은 엇갈린 대각선 배선을 사용해 스택을 통해 데이터를 이동합니다. 이 작지만 근본적인 변화는 세 가지 중요한 문제점을 해결합니다: 대규모 AI 모델을 위한 용량 부족, 데이터센터의 과도한 전력 소비, 고밀도 패키지의 관리하기 어려운 열 축적 등입니다. ZAM은 점진적인 업그레이드가 아닙니다. 2030년 AI 데이터센터 및 HPC 시스템의 상용 배포를 목표로 하는 스택 메모리의 근본적인 재설계입니다.

핵심 기술 혁신

ZAM의 성능 향상은 최신 반도체 제조 규칙 내에서 작동하도록 설계된 5가지의 긴밀하게 통합된 기술 혁신에서 비롯됩니다.
대각선 상호연결 토폴로지. ZAM의 기반은 수직 TSV에서 엇갈린 대각선 인터커넥트로의 전환입니다. 이 구조는 기계적 응력과 열이 좁은 수직 기둥을 따라 집중되지 않고 스택 전체에 고르게 분산됩니다. 또한 평균 신호 경로를 단축하여 지연 시간과 전력 손실을 줄입니다.
구리-구리 하이브리드 본딩. ZAM은 기존의 마이크로범프와 납땜 연결을 구리-구리 직접 하이브리드 본딩으로 대체합니다. 이 원자 수준의 연결은 저항과 인덕턴스를 낮추고 신호 무결성을 개선하며 스택이 일련의 개별 다이가 아닌 단일 모놀리식 실리콘 블록처럼 작동할 수 있도록 합니다.
비아-인-원 제조. ZAM은 단순화된 비아-인-원 공정을 사용하여 단일 생산 단계로 대각선 인터커넥트를 형성합니다. 따라서 HBM에 필요한 다단계 TSV 공정에 비해 제조 복잡성을 줄이고 수율을 개선하며 생산 비용을 절감할 수 있습니다.
OSCOO 2B 배너 1400x475 1 Z-앵글 메모리: AI 및 HPC를 위한 차세대 스택형 DRAM
커패시터 없는 설계. ZAM은 온다이 커패시터를 완전히 제거합니다. 따라서 메모리 셀을 위한 귀중한 실리콘 면적을 확보할 수 있어 프로세스 노드를 축소하지 않고도 스토리지 밀도를 직접적으로 높일 수 있습니다. 또한 칩 설계를 간소화하고 전기 효율을 개선합니다.
EMIB 통합. ZAM은 인텔의 임베디드 멀티 다이 인터커넥트 브리지(EMIB) 패키징을 지원합니다. 이를 통해 ZAM 스택과 AI 프로세서 간의 고속, 저지연 연결이 가능해져 응집력 있는 고성능 컴퓨팅 컴플렉스를 구축할 수 있습니다.

ZAM 대 HBM

아래 표는 공개적으로 공개된 프로토타입 및 설계 목표를 사용하여 ZAM을 널리 배포된 HBM3e 및 곧 출시될 HBM4 솔루션과 비교한 결과입니다.
Metric ZAM HBM3e (현재) HBM4 (출시 예정)
스택당 용량 최대 512GB 24-36GB 24-48GB
최대 스택 레이어 50개 이상의 레이어 12-16 레이어 16~20개 레이어
전력 소비량 HBM3e보다 낮은 40-50% 기준선 HBM3e보다 낮은 ~20%
상호 연결 유형 대각선 Z-각 구리 수직 TSV 수직 TSV
열 성능 중앙 열 기둥, 낮은 핫스팟 높은 계층의 높은 핫스팟 중간 정도의 개선
타겟 사용 사례 대규모 AI 학습, HPC 클라우드 AI 추론 중대형 AI 워크로드

ZAM의 주요 이점

탁월한 메모리 용량. ZAM은 다음을 제공합니다. 용량의 2~3배 스택당 512GB를 목표로 하고 있습니다. 이를 통해 더 적은 수의 가속기로 더 큰 기반 모델을 실행할 수 있으므로 시스템 설계가 간소화되고 총 소유 비용이 절감됩니다.
획기적인 전력 효율성. 전력 사용량이 다음과 같이 감소합니다. 40-50% HBM3e에 비해 대규모 AI 클러스터의 경우 에너지 비용을 절감하고 냉각 수요를 줄이며 지속 가능성 목표를 달성하는 데 도움이 됩니다.
탁월한 열 관리. 기존 HBM은 열 병목현상으로 인해 약 16~20개의 레이어로 제한됩니다. ZAM의 대각선 라우팅은 전체 스택에 열을 분산하는 중앙 열 기둥을 생성하여 다음을 안정적으로 적층할 수 있습니다. 50개 이상의 레이어 위험한 핫스팟 없이.
향상된 기계적 안정성. 대각선 인터커넥트는 다이 전체에 응력을 고르게 분산시켜 높은 스택에서 뒤틀림과 고장 위험을 줄여줍니다. 따라서 엔터프라이즈 및 데이터 센터 환경에서 장기적인 안정성이 향상됩니다.
간소화된 제조. 비아-인-원 공정과 커패시터 없는 설계로 생산이 간소화됩니다. 초기 추정치에 따르면 ZAM은 복잡한 HBM 스택보다 훨씬 더 높은 용량을 제공하면서 더 낮은 비용으로 제조할 수 있습니다.

개발 배경 및 업계 파트너십

이 기술은 인텔의 차세대 DRAM 본딩(NGDB) 미국 에너지부의 첨단 메모리 기술(AMT) 프로젝트와 샌디아 국립연구소의 지원으로 개발된 프로그램입니다. 이 연구는 기존 DRAM을 제한하는 전력-용량-대역폭의 트레이드오프를 극복하는 데 초점을 맞췄습니다.
사이메모리는 2024년 12월, AI를 위한 차세대 메모리 개발이라는 단일 사명을 가진 소프트뱅크 자회사로 설립되었습니다. 공식적인 인텔-사이메모리 파트너십은 다음 날짜에 발표되었습니다. 2026년 2월 2일에서, 그리고 하루 뒤에는 글로벌 프로토타입이 인텔 커넥션 재팬 2026. 이 협력에 따라 인텔은 고급 패키징 및 본딩 전문 지식을 제공하고, SAIMEMORY는 아키텍처 개발 및 상용화를 주도합니다.

실제 사용 사례

ZAM은 최신 컴퓨팅에서 가장 까다로운 워크로드에 맞게 설계되었습니다:
  • 대규모 AI 모델 학습. 스택당 대용량으로 수조 개의 매개변수 기반 모델의 메모리 병목 현상을 제거하여 더 빠른 학습과 더 간단한 클러스터 설계가 가능합니다.
  • 규모에 맞는 클라우드 AI 추론. 전력 소비가 낮으면 지속적인 추론 워크로드를 실행하는 하이퍼스케일 클라우드 제공업체의 운영 비용이 절감됩니다.
  • 고성능 컴퓨팅. 과학 시뮬레이션, 기상 모델링, 재무 모델링은 고용량과 안정적이고 지연 시간이 짧은 메모리 액세스의 이점을 누릴 수 있습니다.
  • CXL 메모리 풀링. ZAM의 효율적인 스태킹과 높은 대역폭은 컴퓨팅 익스프레스 링크(CXL) 메모리 풀링에 적합하며, 최신 데이터 센터에서 유연한 공유 메모리 리소스를 가능하게 합니다.
  • 엣지 AI 및 자율 시스템. 향상된 전력 효율성은 산업 자동화부터 자율 주행 차량에 이르기까지 전력 제약이 있는 엣지 환경에서의 AI 배포를 지원합니다.

현재 상태 및 향후 타임라인

2026년 초 현재, ZAM은 명확한 공개 로드맵을 가지고 활발하게 개발 중입니다:
  • 2026년 2월: 인텔 커넥션 재팬에서 열 관리에 초점을 맞춘 첫 번째 프로토타입 시연.
  • 2027: 하드웨어 파트너에게 출시될 예정인 엔지니어링 샘플 및 테스트 칩.
  • 2030: AI 데이터센터 및 HPC 시스템을 위한 대규모 상용 배포를 목표로 합니다.
이 플랫폼은 아직 개선 중이지만 초기 프로토타입 결과는 용량, 전력 및 열 성능에 대한 핵심 주장을 입증합니다. ZAM은 2030년 이후의 AI 메모리 환경에서 HBM의 뒤를 이을 유력한 후보로 널리 여겨지고 있습니다.

Z-앵글 메모리는 적층형 DRAM 설계의 패러다임 전환을 의미합니다. 수직 TSV를 대각선의 Z자형 인터커넥트 토폴로지로 대체함으로써 HBM의 가장 고질적인 제약을 해결합니다. 그러나 AI 메모리의 경쟁 환경은 역동적입니다. 삼성이 최근 발표한 zHBM과 같은 경쟁 기술도 공격적인 성능을 내세우며 HBM4 이후의 시대를 노리고 있습니다. 또한 새로운 메모리 아키텍처의 성공적인 상용화는 높은 제조 수율과 경쟁력 있는 비용 구조를 달성하고 주요 AI 가속기 및 시스템 공급업체의 채택을 이끌어내는 데 달려 있습니다. 따라서 ZAM은 매력적인 청사진을 제시하지만, 프로토타입에서 업계 표준으로 나아가는 여정은 이러한 현실적인 엔지니어링 및 에코시스템 과제를 극복하는 데 달려 있습니다.

맨 위로 스크롤

문의하기

아래 양식을 작성해 주시면 곧 연락드리겠습니다.

문의 양식 제품