우리는 인공지능이 주도하는 시대에 살고 있습니다. ChatGPT나 Sora와 같은 대규모 모델이 다양한 산업을 재편하고 있습니다. 그러나 이러한 모델들은 엄청난 '욕구'를 가지고 있으며, 방대한 매개변수로 인해 컴퓨팅 및 스토리지 시스템에 심각한 문제를 야기합니다. 칩 컴퓨팅 속도는 빠르지만 데이터 공급이 이를 따라가지 못하면 소위 '메모리 벽'이라는 병목 현상이 발생합니다. 고대역폭 플래시 기술은 바로 이 벽을 허물고 보다 경제적인 비용으로 AI 시스템에 강력한 추진력을 불어넣기 위해 탄생한 핵심 혁신 기술입니다.
HBF란 무엇인가요? 어떻게 '두 가지 장점'을 모두 달성할 수 있을까요?
고대역폭 플래시는 완전히 새로운 저장 매체가 아니라 영리한 아키텍처 혁신입니다. 핵심 아이디어는 3D 낸드 플래시 메모리 휴대폰과 솔리드 스테이트 드라이브에 사용되는 등 일상 생활에서 흔히 볼 수 있는 플래시 메모리에 고성능 컴퓨팅에 주로 사용되는 HBM의 첨단 패키징 및 상호 연결 기술을 접목한 제품입니다. 간단히 말해, HBF는 고용량, 저비용 플래시 메모리에 하이엔드 메모리에 가까운 데이터 전송 속도를 제공함으로써 용량, 대역폭, 비용 간의 이상적인 균형을 달성하는 것을 목표로 합니다. 이 목표를 달성하기 위해서는 주로 두 가지 주요 기술 혁신에 의존합니다.
첫 번째는 3D 스태킹과 TSV 상호 연결 기술입니다. HBM의 성공은 관통 실리콘 비아를 사용하여 여러 개의 DRAM 칩을 빌딩 블록처럼 수직으로 쌓아 작은 수직 채널을 통해 고속 통신을 가능하게 하는 데 있습니다. HBF는 이 개념을 차용하여 여러 개의 낸드 플래시 칩을 고밀도 적층하는 방식입니다. 이 설계는 칩 내부의 데이터 전송 경로를 크게 단축하고 집적도를 높이며 높은 대역폭을 위한 기반을 마련합니다.
두 번째이자 더 중요한 혁신은 병렬 서브 어레이 아키텍처입니다. 기존 낸드 플래시는 용량이 크지만 동시에 데이터를 읽고 쓸 수 있는 채널 수가 제한되어 있습니다. 이는 입구와 출구가 거의 없는 넓은 도로와 같아서 정체가 발생하기 쉽습니다. HBF는 플래시 메모리를 독립적으로 병렬로 작동할 수 있는 다수의 스토리지 서브 어레이로 분할하여 플래시 메모리의 핵심 구조를 혁신합니다. 각 서브 어레이에는 독립적인 읽기/쓰기 채널이 있습니다. 이러한 서브 어레이가 수백, 수천 개가 동시에 작동하면 1차선 도로를 수천 개의 차선이 있는 고속 네트워크로 확장하는 것과 같아서 데이터 홍수를 막힘없이 처리할 수 있어 총 대역폭이 비약적으로 증가합니다.
아래 표는 HBF의 고유한 포지셔닝을 보다 명확하게 보여주기 위해 '이전 제품'인 HBM 및 기존 NAND SSD와 주요 특성을 비교한 것입니다:
| 특징 | HBF | HBM | 기존 NAND SSD |
|---|---|---|---|
| 핵심 이점 | 고용량, 고대역폭, 저렴한 비용 | 매우 높은 대역폭, 매우 짧은 지연 시간 | 고용량, 매우 저렴한 비용 |
| 스택/칩당 일반적인 용량 | 최대 512GB | 약 24-48GB | 1TB-2TB |
| 대역폭 수준 | 매우 높음, HBM에 근접 | 익스트림 | 상대적으로 낮음 |
| 단위당 비용 | 상대적으로 낮음 | 매우 높음 | 매우 낮음 |
| 베스트 애플리케이션 | AI 추론, 읽기 집약적 작업 | AI 교육, 고성능 컴퓨팅 | 데이터 스토리지, 아카이빙 |
이 비교는 HBF가 HBM과 다음과 같은 시장 격차를 정확히 메우고 있음을 직관적으로 보여줍니다. 기존 SSD. HBM의 초저지연과 초고속 쓰기 속도는 없지만 훨씬 더 큰 용량과 훨씬 저렴한 비용을 제공합니다. 기존 SSD에 비해 훨씬 더 높은 대역폭을 제공하며, 대용량 데이터를 빠르게 읽어야 하는 시나리오를 위해 탄생했습니다.
기술적 특성, 장점 및 과제
고대역폭 플래시의 가치는 현재 기능과 주요 애플리케이션 방향을 정의하는 고유한 기술적 특성의 조합에 있습니다. 모든 것이 완벽하지는 않지만 전문 분야에서는 탁월합니다. 장점과 과제를 대조하면 현재 상태를 명확하게 파악할 수 있습니다.
HBF의 세 가지 핵심 이점
막대한 용량과 비용 이점: 동일한 물리적 공간에서 단일 HBF 스택은 HBM의 10배가 넘는 최대 512GB 용량을 제공할 수 있습니다. 단위당 비용이 저렴한 낸드 플래시를 기반으로 하여 AI 시스템의 총소유비용을 크게 절감할 수 있습니다. 높은 읽기 대역폭과 에너지 효율성: 병렬 아키텍처를 통해 읽기 대역폭이 HBM 수준에 근접할 수 있어 빠른 데이터 읽기를 위한 AI 추론과 같은 작업의 요구 사항을 충족합니다. 한편, 정적 전력 소비는 지속적으로 새로 고쳐야 하는 DRAM보다 훨씬 낮습니다. 정확한 시장 포지셔닝: HBM과 기존 SSD 사이의 간극을 정확하게 메워 용량과 비용에 민감한 읽기 집약적인 애플리케이션에 이상적인 솔루션을 제공합니다.
HBF가 직면한 주요 과제
쓰기 속도 및 지속 시간 제한: 이는 낸드 플래시의 고유한 특성입니다. HBF의 쓰기 속도는 HBM보다 훨씬 느리고 칩의 지우기/쓰기 주기가 제한적입니다. 따라서 빈번한 데이터 쓰기가 필요한 AI 모델 학습 시나리오에는 적합하지 않습니다. 접속 지연 시간 증가: 액세스 지연 시간은 마이크로초 수준입니다. 이는 많은 읽기 작업에는 거의 영향을 미치지 않지만, HBM의 나노초 수준의 지연 시간보다는 훨씬 높으며 지연 시간에 매우 민감한 애플리케이션을 처리할 수 없습니다.
요약하자면, HBF의 현재 상태를 정확히 이해하면 읽기 집약적인 작업에 최적화된 고성능 스토리지 솔루션이라는 것입니다. HBM을 대체하는 것이 아니라 강력하게 보완하는 솔루션입니다. 그 가치는 특정 문제를 해결하기 위해 강점을 활용하고 약점을 피하는 데 있습니다.
HBF의 향후 전망
다음과 같은 특성을 기반으로 "대용량, 높은 읽기 대역폭, 저렴한 비용, 제한된 쓰기 내구성" HBF의 향후 발전 방향은 매우 명확합니다. 교육 분야에서 HBM의 입지를 대체하는 것이 아니라 독자적인 틈새 시장을 개척하고 기존 기술과 상호 보완적인 생태계를 형성할 것입니다.
핵심 애플리케이션 시나리오
HBF의 킬러 애플리케이션은 주로 다음과 같은 방향에 집중되어 있습니다:
AI 에지 추론 서버. 이는 HBF에 가장 이상적이고 유망한 애플리케이션 시나리오입니다. 추론을 위해 엣지 서버에 AI 모델을 배포하려면 사전 학습된 모델 매개변수를 자주 호출하는 거의 순수한 읽기 작업인 워크로드가 포함됩니다. 이는 높은 읽기 대역폭과 대용량이라는 HBF의 장점과 완벽하게 일치하는 동시에 느린 쓰기와 제한된 내구성이라는 약점을 피할 수 있습니다. 또한 HBF의 낮은 전력 소비는 에너지에 민감한 엣지 환경에 매우 적합합니다.
HBM으로 이기종 또는 하이브리드 메모리 아키텍처를 구성합니다. 클라우드 데이터 센터에서 HBF는 HBM의 효과적인 용량 확장 역할을 할 수 있습니다. 이 모델에서 HBM은 현재 계산에 가장 긴급하게 필요한 '핫 데이터'를 보관하는 고속 캐시 역할을 하고, 완전한 대규모 AI 모델은 HBF에 저장됩니다. 그런 다음 모델 매개변수의 다른 부분은 필요에 따라 HBF에서 HBM으로 고속 프리페치됩니다. 이 조합은 성능, 용량, 총 비용 간에 매력적인 균형을 제공합니다.
더 멀리 내다볼 때, HBF 기술은 다음과 같은 분야에 적용될 것으로 예상됩니다. 최종 사용자 디바이스. AI PC와 하이엔드 스마트폰이 더 강력한 로컬 AI 기능을 요구함에 따라 HBF를 통합하면 이러한 디바이스에서 더 큰 매개변수 모델을 로컬에서 실행할 수 있어 클라우드에 대한 의존도를 줄이고 사용자 개인 정보를 더 잘 보호할 수 있습니다.
기술 개발 및 산업화 프로세스
기술 개발 측면에서 선도적인 기업들은 이미 명확한 로드맵을 계획하고 있습니다. 예를 들어 샌드디스크 단일 칩 용량을 512GB 이상으로 늘리고 읽기 대역폭을 현재 수준에서 두 배로 늘리는 동시에 에너지 효율성을 지속적으로 최적화하는 등 3세대 제품에 걸쳐 지속적인 반복 작업을 계획하고 있습니다.
산업화 과정도 시작되었습니다. 다음 간의 협업 SK하이닉스 와 SandDisk는 HBF가 R&D에서 산업화로 나아가는 중요한 단계에 있습니다. 업계에서는 일반적으로 2026년 하반기에 HBF 모듈 샘플이 출시될 것으로 예상하고 있으며, HBF를 통합한 최초의 AI 추론 서버는 2027년 초에 공식적으로 출시될 것으로 예상하고 있습니다. 시장 분석가들은 2030년까지 HBF가 수백억 달러 규모의 시장으로 성장할 잠재력을 가지고 있다고 예측합니다. HBM보다는 규모가 작을지 모르지만, AI 인프라에서 없어서는 안 될 부분이 될 것입니다.
결론적으로 HBF의 미래는 AI 스토리지 에코시스템의 핵심이 되는 데 있습니다. 읽기 집약적인 작업을 중심으로 개발되어 클라우드에서 엣지까지 차세대 AI 애플리케이션을 점진적으로 강화할 것입니다.





