2025년, 인공지능(AI)은 초기 실험과 초기 도입 단계를 넘어 광범위한 적용과 대규모 산업 배포 단계에 접어들었습니다. 초대형 모델의 학습이든 비즈니스 애플리케이션의 저지연 추론이든, AI의 사용 시나리오와 데이터 양은 폭발적으로 증가하고 있습니다. 이러한 성장의 물결은 컴퓨팅 리소스의 구조를 변화시킬 뿐만 아니라 스토리지 계층의 수요 프로필을 크게 재편하고 있으며, 특히 다음과 같이 스토리지 계층의 수요 프로필을 크게 재편하고 있습니다. 솔리드 스테이트 드라이브 (SSD). 데이터 읽기 및 지속성을 위한 핵심 구성 요소인 SSD는 더 이상 수동적인 '용량' 모듈이 아니라 시스템 수준의 중요한 성능 및 인텔리전스 요소로 자리 잡고 있습니다.
배경: AI의 스케일업이 스토리지 수요를 촉진하는 방법
최근 몇 년 동안 AI 모델의 규모와 학습에 필요한 컴퓨팅은 놀라운 속도로 성장했습니다. 에 따르면 2025 AI 지수 보고서 의 스탠포드 HAI에 따르면, 주목할 만한 AI 모델의 학습 컴퓨팅은 점점 더 짧아지는 시간 동안 두 배로 증가하고 있으며 데이터 세트 크기도 빠르게 확장되고 있어 대규모 AI 모델을 학습하려면 이제 더 많은 스토리지, 대역폭, 지속성 리소스가 필요하게 되었습니다. 더 중요한 것은 이러한 대규모 모델이 개발 환경에서 광범위한 엔터프라이즈 배포 및 온라인 추론 시나리오로 옮겨가면서 지연 시간이 짧고 동시성이 높은 스토리지 시스템에 대한 실제 수요가 증가하고 있다는 점입니다.
클라우드 트레이닝에는 페타바이트급 원시 데이터와 수백 테라바이트에서 페타바이트급의 모델 가중치가 필요하며, 추론 및 검색 증강 생성(RAG) 시나리오에는 수천 개의 소규모 랜덤 I/O 요청과 높은 동시 읽기 횟수가 발생합니다. 이러한 추세는 단순히 용량을 늘리는 것만으로는 해결할 수 없는 방식으로 SSD에 도전합니다.
한편, 시장 조사 기관의 SSD 시장 전망은 AI를 주요 성장 동력으로 반영하고 있습니다. 예를 들어, 한 예측에 따르면 2025년 전 세계 SSD 시장 규모는 대략 다음과 같습니다. 미화 557.3억 달러로 예상되며, 예상치는 약 미화 266.68억 달러 2034년까지
이러한 성장은 AI가 하이엔드 SSD에 대한 수요와 다음과 같은 비트 수요를 모두 증가시키고 있음을 강조합니다. 낸드 플래시 일반적으로 업스트림 공급망 용량 계획 및 가격에 영향을 미칩니다.
공급 측면에서 메모리 공급업체는 다음과 같은 AI의 구조적 수요를 점점 더 많이 인식하고 있습니다. 고대역폭 메모리(HBM), DRAM 및 NAND. 예를 들어, 2025년 한 주요 메모리 공급업체는 HBM 및 기타 메모리 유형에 대한 AI 수요가 주요 성장 변수라고 선언했는데, 이는 메모리 및 NAND 공급망이 우선순위를 차지할 수 있는 AI 프로젝트의 영향을 받고 있음을 나타냅니다.
또한, AI를 둘러싼 스토리지 생태계는 새로운 데이터 아키텍처와 서비스 계층을 형성하고 있습니다. 검색 및 시맨틱 검색을 위한 핵심 인프라로서의 벡터 데이터베이스는 2024~2025년에 빠르게 성장했으며, 니어라인 스토리지(주로 NVMe SSD)에 대한 의존도는 AI 스택에서 SSD의 중요성이 점점 더 커지고 있음을 보여줍니다. 종합하면, AI의 확장으로 인해 단순히 '용량' 수요만 증가하는 것이 아니라 성능(처리량, IOPS, 레이턴시), 내구성(쓰기 내구성), 지능(펌웨어 및 컴퓨팅 지원 스토리지)에 대한 요구사항이 높아지고 있습니다.
AI 워크로드가 SSD 기술 지표를 재정의하는 방법
전통적으로 SSD 선택은 용량, GB당 비용, 순차적 읽기/쓰기 성능 간의 절충이었습니다. 하지만 AI 워크로드는 이 세 가지 요소만으로는 불충분한 새로운 요구 사항을 가져옵니다.
학습 단계에서 스토리지 수요는 대용량과 높은 순차 처리량을 강조하지만, 동시에 매우 높은 병렬 대역폭과 지속적인 쓰기 기능을 필요로 합니다. 훈련 워크플로에는 잦은 체크포인트 쓰기, 모델 슬라이스의 분산 저장, 대규모 샘플 데이터 전처리가 포함되며, 이러한 작업은 각각 쓰기 처리량과 내구성 요구가 높습니다.
온라인 추론 및 RAG 시나리오에서 SSD는 다른 요구 사항에 직면합니다. 이러한 시나리오는 일반적으로 지연 시간이 매우 짧은 다수의 소규모 랜덤 읽기를 포함하며, 특히 벡터 인덱스나 임베딩이 샤딩되고 검색이 수천 개의 소규모 랜덤 I/O 요청을 동시에 생성하는 경우 더욱 그렇습니다. 따라서 짧은 지연 시간과 높은 IOPS는 시스템 응답과 사용자 경험에 매우 중요합니다. 많은 실제 배포에서 DRAM 캐싱만으로는 작업 세트를 감당할 수 없으므로, 다음과 같은 문제가 발생합니다. NVMe SSD 따라서 SSD는 비용과 용량의 균형을 유지하면서 높은 랜덤 읽기 성능을 유지해야 합니다.
전체 시스템 아키텍처 관점에서 볼 때, 상호 연결 기술(예: PCIe 5.0/6.0, CXL)과 분산 스토리지 프로토콜(예: NVMe-oF)이 SSD와 컴퓨팅 노드를 연결하는 백본이 되고 있습니다. 더 높은 대역폭과 낮은 통신 오버헤드는 대규모 학습에서 스토리지 액세스를 더욱 효율적으로 만들어주며, 아키텍처에서 SSD의 역할을 더 이상 정적 데이터 저장소가 아닌 컴퓨팅과 밀접하게 결합된 실시간 데이터 채널로 확장하고 있습니다.
기술 로드맵: SSD가 AI의 새로운 요구사항에 대응하는 방법
진화하는 수요에 대응하기 위해 SSD 공급업체와 시스템 설계자는 명확한 설계 방향을 따르고 있습니다. 첫째, 인터페이스 및 프로토콜 업그레이드가 기본입니다. PCIe 5.0은 이미 채택되고 있습니다. PCIe 6.0 는 향후 몇 년에 걸쳐 점진적으로 출시될 예정입니다. 더 높은 링크 대역폭은 드라이브당 사용 가능한 최대 처리량을 직접적으로 확장하고 다수의 병렬 드라이브에 대한 의존도를 줄여 시스템 통합의 유연성을 높입니다.
공급업체는 NAND 다이를 선택할 때 비용과 성능을 비교해야 합니다. QLC 및 곧 출시될 PLC 멀티비트 셀 NAND는 낮은 비용과 높은 비트 밀도 덕분에 콜드 또는 '웜' 데이터 스토리지에 적합하며 대규모 데이터의 경제적인 보존을 지원합니다. 동시에, 높은 IOPS와 긴 수명이 요구되는 핫 데이터에는 SLC/MLC 유형 또는 고급 엔터프라이즈급 다이가 여전히 필수적입니다. 따라서 많은 공급업체들이 SSD 내에 더 큰 DRAM 또는 SLC 캐시 영역을 추가하고 지능형 핫/콜드 계층화를 적용하여 랜덤 쓰기가 많은 시나리오에서 QLC가 여전히 적절한 성능을 발휘할 수 있도록 합니다.
컨트롤러와 펌웨어 혁신은 더욱 중요해지고 있습니다. AI 시나리오는 더 복잡한 I/O 패턴을 요구하기 때문에 기존 컨트롤러로는 더 이상 충분하지 않을 수 있습니다. 고급 컨트롤러는 더 스마트한 스케줄링을 수행하고, 가속(예: 압축/압축 해제, 드라이브 내 사전 필터링)을 내장하고, 더 복잡한 FTL 루틴을 구현하여 쓰기 통합 및 가비지 수집을 최적화함으로써 쓰기 증폭을 줄이고 내구성을 개선할 수 있습니다.
또 다른 주목할 만한 발전은 '컴퓨팅 스토리지'로, SSD 내부에 특수 처리 장치를 내장하여 일부 연산(예: 특징 추출, 벡터화, 사전 필터링)을 스토리지 자체 근처에서 수행할 수 있도록 하는 것입니다. AI의 경우, 이는 SSD 자체가 초기 필터링 또는 임베딩 생성을 수행하여 호스트와 스토리지 간의 데이터 이동을 줄이고 엔드투엔드 효율성을 개선할 수 있음을 의미합니다. 이 기능이 표준화되고 소프트웨어 에코시스템 지원이 성숙해지면 대규모 AI 파이프라인이 크게 재편될 수 있습니다.
하드웨어와 프로토콜을 넘어 시스템 수준에서 스토리지가 통합되는 방식도 변화하고 있습니다. 예를 들어, CXL(컴퓨트 익스프레스 링크)은 메모리와 퍼시스턴트 스토리지를 더욱 긴밀하게 결합하여 메모리 또는 니어 메모리 리소스를 노드 간에 동적으로 액세스할 수 있는 방법을 제공하며, 이는 대량의 파라미터가 포함된 대규모 AI 모델을 학습할 때 중요합니다. CXL이 널리 채택되면 SSD의 위치와 필요한 특성이 변화할 수 있으며, 경우에 따라 영구 메모리(PMEM) 또는 스토리지급 메모리(SCM)가 실용화될 수 있지만 비용과 생태계 성숙도로 인해 당분간은 NVMe SSD가 우위를 유지할 것으로 예상됩니다.
벡터 데이터베이스, SDS 및 데이터 거버넌스가 SSD 사용량에 미치는 영향
하드웨어는 기반을 마련하지만, 핵심은 여전히 소프트웨어가 그 하드웨어를 어떻게 활용하여 AI 파이프라인에 서비스를 제공하는가입니다. 최근 몇 년 동안 시맨틱 검색과 RAG 시나리오의 핵심인 벡터 데이터베이스는 2024~2025년에 놀라운 속도로 성장했습니다. 이러한 데이터베이스는 일반적으로 비용과 응답성의 균형을 맞추기 위해 핫 벡터는 메모리에, 더 큰 니어라인 벡터 세트는 NVMe SSD에 보관하는 "DRAM + NVMe SSD" 계층형 스토리지 아키텍처를 채택합니다. 벡터 데이터베이스의 증가는 검색 시나리오에서 NVMe SSD의 중요성을 직접적으로 증가시켰으며, 공급업체들은 무작위 읽기 안정성과 낮은 지연 시간을 위해 SSD를 최적화하도록 유도했습니다.
동시에 소프트웨어 정의 스토리지(SDS) 공급업체는 클라우드 및 프라이빗 클라우드 환경에서 고성능 블록 스토리지 서비스를 제공하고 있습니다. SDS는 기본 SSD 리소스를 오케스트레이션하여 QoS(서비스 품질), 탄력적인 확장, 세분화된 핫/콜드 데이터 계층화를 제공할 수 있어 비용을 제어하면서 학습 및 추론 워크로드를 동시에 처리해야 하는 플랫폼에 매우 유용하다는 점에서 빛을 발합니다.
종종 간과되는 또 다른 차원은 데이터 거버넌스 및 버전 관리 도구입니다. AI 모델 워크플로우에서는 수많은 체크포인트와 데이터 세트 버전(예: DVC 또는 유사한 도구를 통해)이 뚜렷한 쓰기 패턴을 생성합니다. 여기에는 주기적인 스냅샷 쓰기, 분기 데이터 세트, 감사 로그 등이 포함되며, 이 모든 것이 쓰기 부하를 급증시킵니다. SSD 공급업체와 시스템 설계자는 이러한 쓰기 곡선을 모델링하고 해당 캐싱 전략을 설계해야 시스템이 장기적으로 안정적으로 운영될 수 있습니다.
수요와 공급 및 시장 역학
AI의 폭발적인 증가로 메모리와 스토리지 리소스가 다시 주목받으면서 낸드 플래시의 수요와 공급 균형에 대한 도전이 제기되고 있습니다. 업계 보고서와 뉴스 기사에 따르면 2025년 메모리 공급업체들은 HBM 및 기타 메모리 유형에 대한 AI의 수요를 매출 성장의 핵심 변수로 간주하고 있습니다. HBM은 가속기를 직접 겨냥한 것이지만, 메모리와 NAND 수요의 상승 압력은 SSD의 비용 구조와 출시 일정에 영향을 미칩니다.
시장 관점에서 볼 때, SSD 매출 전망은 긍정적인 궤적을 그리고 있으며 엔터프라이즈급 및 AI 전용 SSD의 점유율이 증가하고 있습니다. 예를 들어, 한 전망에 따르면 2025년 SSD 시장 규모는 557억 3천만 달러로 2034년에는 2,666억 8천만 달러에 달할 것으로 예상됩니다.
그러나 용량 확장은 자본 집약적이고 시간이 걸리며, 미래 수요를 잘못 예측하면 공급 과잉 또는 부족으로 이어져 가격 변동이 발생할 수 있습니다. 이러한 불확실성으로 인해 업계 참여자들은 보다 신중한 계획을 수립해야 합니다. 지정학적 긴장, 원자재 가격 변동성, 장비 투자 속도 등 글로벌 공급망 리스크가 SSD 출시 주기와 배송 실적에 영향을 미칠 수 있기 때문에 더욱 복잡해집니다. 공급업체는 R&D 투자와 용량 확장의 균형을 유지해야 합니다. 과잉 생산으로 인한 재고 부담을 피하면서 AI 시나리오에 대한 미래 제품의 적합성을 보장해야 합니다.
위험, 도전 과제 및 향후 세 가지 주요 관전 포인트
미래의 발전을 예측할 때는 불확실성에 대한 민감성을 유지하는 것이 중요합니다. 첫째, CXL 및 PCIe 6.0과 같은 표준은 예상보다 널리 채택되기까지 시간이 오래 걸릴 수 있으며, 해당 에코시스템의 성숙도가 느리면 예상되는 메모리-스토리지 디커플링이 지연될 수 있습니다. 둘째, 컴퓨팅 스토리지의 실제 배포 규모는 아직 미지수이며, 많은 시나리오에서 컴퓨팅 로직을 SSD로 마이그레이션해야 하므로 완전한 소프트웨어 스택 지원과 생태계 조율이 필요하며, 이는 하드웨어 공급업체가 단독으로 달성할 수 있는 일이 아닙니다. 셋째, 대체 기술(예: SCM, PMEM 또는 기타 미래의 비휘발성 메모리)이 현재의 NAND 솔루션의 비용이나 성능을 따라잡을 수 있으며, 이는 장기적인 SSD 수요 프로파일을 변화시킬 수 있습니다.
또한 에너지 소비와 지속 가능성은 점점 더 중요해질 것입니다. GPT급 모델의 대규모 트레이닝과 대규모 SSD 배포는 데이터센터 에너지 사용량을 크게 증가시킬 수 있습니다. 하드웨어 효율성 외에도 업계는 규제 및 기업 ESG 요구 사항을 충족하기 위해 와트당 성능과 더 스마트한 스케줄링과 같은 지표에 투자해야 합니다.
타임라인 개요: 주요 마일스톤 및 업계 진화
| 시간(향후 3년) | 주요 이벤트 또는 트렌드 | SSD 산업에 미치는 구체적인 영향 |
|---|---|---|
| 2024-2025 | 초대형 모델 학습의 빠른 성장과 벡터 데이터베이스의 상용화 | 단기적으로 엔터프라이즈급 SSD 시장 확장을 가속화하여 고용량 NVMe SSD 및 높은 IOPS 디바이스에 대한 수요를 촉진합니다. |
| 2025 | HBM 및 고대역폭 메모리에 대한 수요 증가, AI 프로젝트에서 일부 메모리 용량 우선순위 지정 | 메모리 및 하이엔드 칩 공급 제약으로 인해 SSD 비용이 간접적으로 상승하고 배송이 지연될 수 있습니다. |
| 2025-2026 | PCIe 5.0의 광범위한 배포, PCIe 6.0 및 CXL 에코시스템의 점진적 구축 | 드라이브당 최대 대역폭을 늘리고 병렬 데이터 흐름을 더 많이 허용하며 보다 유연한 스토리지 아키텍처를 지원합니다. |
| 2026-2027 | 일부 클라우드 또는 엣지 시나리오에서 컴퓨팅 스토리지 및 SDS의 평가판 및 롤아웃 | 엔드투엔드 병목 현상을 크게 줄이면 스토리지와 소프트웨어의 공동 혁신을 촉진하고 SSD의 포지셔닝을 재편할 수 있습니다. |
SSD의 역할이 '사업자'에서 '능동적 참여자'로 변화하고 있습니다.
요약하자면, 2025년 SSD 산업에 미칠 AI의 영향은 단순히 용량 확장을 주도하는 것 이상의 의미로 성능 지표, 컨트롤러/펌웨어 혁신, 소프트웨어-생태계 협업, 공급망 재편에 영향을 미치는 체계적인 변화입니다. SSD는 상대적으로 수동적인 하드웨어 상품에서 데이터 처리 파이프라인에 능동적으로 참여하는 핵심 구성 요소로 진화하고 있습니다.
AI의 부상은 더 큰 시장과 더 높은 수익 기회를 가져올 뿐만 아니라 SSD 설계 철학과 업계 협업 모델에 대한 깊은 성찰을 요구합니다. 향후 3~5년 동안 컨트롤러, 펌웨어, 소프트웨어 정의 스토리지 분야에서 획기적인 혁신을 달성하는 기업이 AI 기반 스토리지 시장에서 구조적인 주도권을 잡을 가능성이 높습니다. 빠르게 진화하는 기술 및 시장 환경에서는 신중하면서도 선제적인 전략, 생태계 간 협력, 장기적인 기술 트렌드에 대한 투자가 성공의 열쇠가 될 것입니다.





