AI SSD: Eine Speicherrevolution, geboren für KI-Workloads

Lange Zeit wurde die Rolle der SSDs war relativ klar. Seine Hauptaufgabe war es, die mechanische FestplattenlaufwerkeDadurch werden die Reaktionsfähigkeit und der Datendurchsatz des Systems insgesamt verbessert. Ob in Verbrauchercomputern, Unternehmensservern oder Rechenzentren, die technologische Entwicklung von SSDs drehte sich im Wesentlichen um mehrere feste Ziele: höhere sequenzielle Lese-/Schreibgeschwindigkeiten, größere Kapazität, niedrigere Kosten und bessere Zuverlässigkeit. Mit der rasanten Entwicklung der künstlichen Intelligenz, insbesondere bei großen Modellen und Deep Learning, haben sich die Arbeitslasten für Speichersysteme jedoch erheblich verändert. In KI-Szenarien werden Daten nicht mehr einfach nur "eingelesen, verarbeitet und gelöscht". Stattdessen weisen sie mehrere neue Merkmale auf:
AI SSD Artikelüberschrift img 1400 AI SSD: Eine Speicherrevolution, geboren für KI-Workloads
Erstens ist das Datenvolumen explodiert. Ob es sich nun um die massiven Rohdaten handelt, die in der Modelltrainingsphase verwendet werden, oder um die Modellparameter und Vektordatenbanken, auf die während der Inferenzphase wiederholt zugegriffen werden muss - die Datenmenge übersteigt bei weitem die von herkömmlichen Anwendungen.
Zweitens hat sich das Zugriffsmuster grundlegend geändert. KI-Workloads beinhalten oft eine große Anzahl kleiner, zufälliger Datenblockzugriffe mit hoher Gleichzeitigkeit und nicht die sequentiellen Lese- und Schreibvorgänge großer Blöcke, die herkömmliche Speichersysteme besser bewältigen können.
Drittens hat die Speicherung begonnen, sich direkt auf die Effizienz der Berechnungen auszuwirken. Bei KI-Servern wächst die Rechenleistung von GPUs oder anderen Beschleunigern sehr schnell. Wenn das Speichersystem nicht mit der Geschwindigkeit der Datenbereitstellung Schritt halten kann, kommt es zu einem "Rechenleerlauf", der die Effizienz des Gesamtsystems verringert.
Vor diesem Hintergrund wurde das Konzept der KI-SSD erstmals häufig erwähnt und entwickelte sich allmählich vom Konzept zu konkreten Produkten und technischen Fahrplänen.

Was ist AI SSD?

Für viele Neulinge in diesem Konzept kann "KI-SSD" leicht als ein Produkt missverstanden werden, das KI-Algorithmen in das Solid-State-Laufwerk integriert und in der Lage ist, selbständig zu "lernen" oder zu "optimieren". Nach der gängigen Branchendefinition ist dieses Verständnis jedoch nicht zutreffend. Im Kern geht es bei einer KI-SSD nicht darum, "ob sich KI im Inneren der SSD befindet", sondern darum, "ob die SSD für KI-Workloads geboren ist". Genauer gesagt ist ein KI-SSD eine Art von Solid-State-Speichergerät, das tiefgreifend für KI-Training, Schlussfolgerungen und Datenserviceszenarien optimiert ist. Diese Optimierung umfasst sowohl das Architekturdesign auf Hardware-Ebene als auch Änderungen an Firmware, Protokollen und Methoden der Systemzusammenarbeit. In Bezug auf die funktionale Positionierung ist die KI-SSD immer noch ein Speichergerät; sie wird die rechnerische Rolle von GPUs oder CPUs nicht ersetzen. Aber ihr Ziel ist ganz klar: die Leistungsbeschränkungen zu minimieren, die KI-Systemen durch Speicher auferlegt werden.

Praktische Engpässe herkömmlicher SSDs in KI-Szenarien

Um den Wert von KI-SSDs zu verstehen, muss man sich zunächst über die Probleme herkömmlicher SSDs in KI-Szenarien im Klaren sein.
oscoo 2b banner 1400x475 1 AI SSD: Eine Speicherrevolution, geboren für KI-Workloads
  1. Die Latenzzeit wird zu einer wichtigeren Kennzahl als die Bandbreite.Bei traditionellen Anwendungen, sequentielles Lesen/Schreiben Bandbreite ist oft ein wichtiger Indikator für die Bewertung der SSD-Leistung, z. B. 7 GB/s oder 14 GB/s. In KI-Szenarien übertrifft die Bedeutung der Latenz jedoch oft die Spitzenbandbreite. Dies liegt daran, dass KI-Aufgaben eine große Anzahl von feinkörnigen Datenanforderungen beinhalten. Wenn für jeden Zugriff eine Wartezeit von mehreren Dutzend Mikrosekunden erforderlich ist, verlangsamt der kumulative Effekt den Gesamtfortschritt erheblich, selbst wenn die Datenmenge pro Anforderung gering ist. Die typische Zugriffslatenz für viele Unternehmens-SSDs liegt zwischen 40 und 100 Mikrosekunden, was in Datenbank- oder Virtualisierungsszenarien akzeptabel ist, bei groß angelegten KI-Inferenzen oder -Trainings jedoch relativ hoch erscheint.
  2. IOPS ist nicht mehr nur "gut genug". IOPS (Input/Output Operations Per Second) ist seit langem eine der wichtigsten Metriken für SSDs, aber in traditionellen Unternehmen war es oft ausreichend, Hunderttausende von IOPS zu erreichen. KI-Workloads sind völlig anders. Szenarien wie die Abfrage von Vektoren, das Laden von Parametern und der Modell-Sharing-Zugriff erzeugen eine extrem große Anzahl von zufälligen Leseanforderungen. In solchen Fällen werden die IOPS herkömmlicher SSDs schnell zu einem Systemengpass. Aus diesem Grund werden in Diskussionen über KI-SSD-Technologie oft Ziele von Millionen oder sogar zehn Millionen IOPS genannt, was in der Vergangenheit sehr selten war.
  3. Die CPU wird zu einem "Flaschenhals für die Übertragung". In der klassischen Serverarchitektur verläuft der Datenpfad zwischen SSD und GPU normalerweise wie folgt: SSD → CPU → Speicher → GPU. Dieses Modell hat sich in der Ära des Allzweck-Computings bewährt, birgt jedoch offensichtliche Probleme bei KI-Servern. Einerseits muss die CPU eine große Menge an Datenbewegungen bewältigen, andererseits führt dieser Pfad selbst zu zusätzlichen Latenzzeiten. Da die Rechenleistung der GPUs weiter zunimmt, wird dieser Datenpfad, der die CPU umgeht, um die GPU zu erreichen, zu einem Hindernis für die Effizienz des Gesamtsystems.

Positionierungsunterschiede zwischen AI SSD und herkömmlicher SSD

Um den Unterschied zwischen den beiden intuitiv zu verstehen, können wir sie aus der Perspektive ihres "Design-Ausgangspunkts" vergleichen.
Vergleich Dimension Traditionelle SSD AI SSD
Hauptziel Gleichgewicht zwischen Leistung und Kosten für allgemeine Zwecke Extreme Effizienz für KI-Workloads
Optimierung Fokus Sequentielles Lesen/Schreiben, Kapazität, Zuverlässigkeit Geringe Latenz, hohe IOPS, hohe Gleichzeitigkeit
Typische Anwendungen PC, Server, Datenbank AI-Training, Inferenz, Vektorsuche
Datenzugriffsmuster Gemischt, hauptsächlich sequentiell Kleiner Block, zufällig, hohe Gleichzeitigkeit
System-Zusammenarbeit CPU-zentriert Näher an GPU/Beschleuniger
Es ist wichtig zu betonen, dass AI SSD nicht dazu gedacht ist, traditionelle SSDs zu ersetzen. In der überwiegenden Mehrheit der Allzweckszenarien bleiben herkömmliche SSDs eine vernünftigere und kostengünstigere Wahl. Die Existenz von AI SSD dient dazu, Systeme zu bedienen, die durch KI-Arbeitslasten bereits "an die Grenzen gebracht" werden.

Die zentrale Positionierung von AI SSD

Aus der Systemperspektive lässt sich die wesentliche Rolle von KI-SSDs in einem Satz zusammenfassen: Ihre Aufgabe besteht nicht nur darin, Daten selbst zu speichern, sondern die KI-Recheneinheit effizient, stabil und kontinuierlich mit Daten zu versorgen. Um dieses Ziel zu erreichen, konzentrieren sich KI-SSDs in der Regel auf die Optimierung in den folgenden Richtungen:

  • Äußerst geringe Zugriffslatenz
  • Sehr hohe zufällige IOPS-Fähigkeit
  • Interne Architektur, die besser für KI-Datenzugriffsmuster geeignet ist
  • Straffere Methoden der Zusammenarbeit auf Systemebene
Diese Eigenschaften werden nicht durch einfaches Stapeln von Parametern erreicht, sondern erfordern oft ein Überdenken des SSD-Controller-Designs, der Flash-Speicher-Verwaltungsstrategien und sogar der Systemschnittstellenmethoden.

Technische Hauptmerkmale und architektonische Ansätze von AI SSD

Bei der KI-SSD geht es nicht einfach darum, eine vorhandene Unternehmens-SSD zu nehmen, die Leistung des Controllers zu erhöhen, mehr Flash-Speicher hinzuzufügen und die Schnittstellengeschwindigkeit zu maximieren, um KI-Szenarien natürlich zu erfüllen. Die eigentliche Schwierigkeit liegt in dem strukturellen Unterschied zwischen den Zugriffsmustern von KI-Arbeitslasten und herkömmlichen Speicheranwendungen. Die technologische Entwicklung von KI-SSD ist im Wesentlichen eine Neugestaltung, die sich auf Datenzugriffsmuster konzentriert.

Äußerst geringe Latenzzeit

In KI-Systemen bestimmt die Speicherlatenz oft direkt die Nutzungsrate der Rechenressourcen. Nehmen wir die GPU als Beispiel: Ihre Rechenleistung steigt viel schneller als die der Speichersysteme. Wenn die GPU im Leerlauf auf Daten wartet, sinkt der tatsächliche Durchsatz erheblich, selbst wenn die theoretische Rechenleistung der GPU hoch ist. In diesem Fall reicht die durchschnittliche Latenzzeit nicht aus; die Endlatenz ist sogar noch kritischer. Ein einziger IO-Vorgang mit abnormaler Latenz kann die Ausführung eines ganzen Stapels verlangsamen.
Die Zugriffslatenz herkömmlicher NVMe-SSDs für Unternehmen liegt in der Regel im Bereich von zehn Mikrosekunden, was ein sehr ausgereiftes und stabiles Ergebnis ist. In KI-Szenarien versucht die Branche jedoch, die Latenzzeit weiter auf zehn Mikrosekunden oder sogar in die Nähe eines einstelligen Mikrosekundenwerts zu reduzieren. Um dies zu erreichen, geht es nicht nur darum, die Schnittstellengeschwindigkeit zu erhöhen, sondern es erfordert eine systematische Optimierung in den folgenden Bereichen:
  • Reduzierung von Unterbrechungen und Kontextwechseln im Kontrollpfad
  • Optimierung von Flash-Speicher-Zugriffsplanungsstrategien
  • Verkürzung des internen Verarbeitungsweges von Daten innerhalb des Controllers
Man kann sagen, dass die Latenzoptimierung ein systematisches Projekt ist, das sich durch den gesamten Designprozess von AI SSD zieht.

Ultrahohe IOPS

Während des Modelltrainings und der Inferenz weist der Datenzugriff häufig "fragmentierte" Merkmale auf. Zum Beispiel:
  • Die Modellparameter sind in zahlreiche kleine Blöcke aufgeteilt.
  • Vektordatenbanken erfordern einen häufigen Zugriff auf Indizes und Merkmale.
  • Mehrere Modelle oder Aufgaben laufen parallel.
In diesen Szenarien ist die SSD nicht mit einigen wenigen großen, kontinuierlichen Anfragen konfrontiert, sondern mit einer großen Anzahl kleiner Anfragen, die gleichzeitig gestellt werden. Dies macht IOPS zu einem Schlüsselindikator, der die Leistungsgrenze bestimmt. Bei herkömmlichen Unternehmens-SSDs gelten mehrere hunderttausend IOPS bereits als High-End. Bei der Planung von KI-SSDs werden häufig Millionen, mehrere Millionen oder sogar zehn Millionen IOPS angestrebt. Es ist wichtig zu beachten, dass es sich bei den hier genannten IOPS nicht nur um einen Spitzenwert unter Laborbedingungen handelt, sondern um eine nachhaltige Fähigkeit unter den Bedingungen hoher Gleichzeitigkeit und geringer Latenz. Die Verbesserung der IOPS ist kein Problem, das sich einfach dadurch lösen lässt, dass man "mehr Warteschlangen öffnet". Wenn die Zahl der gleichzeitigen Anfragen extrem hoch ist, treten schnell die folgenden Probleme auf:
  • Erhöhte Komplexität der Warteschlangenverwaltung
  • Ungleichmäßige Belastung der Flash-Speicherkanäle
  • Interferenzen durch Schreibverstärkung und Garbage Collection
Daher müssen KI-SSDs oft aggressivere Strategien zur gleichzeitigen Planung auf Firmware-Ebene einführen und gleichzeitig die Flash-Speicherressourcen feiner verwalten.

System-Co-Design für GPUs und Beschleunigungssysteme

In der klassischen Serverarchitektur gibt es in der Regel keinen direkten Datenpfad zwischen der SSD und der GPU. Die Daten müssen zunächst die CPU und den Systemspeicher durchlaufen, bevor sie an die GPU gesendet werden. Die Probleme dieser Architektur werden bei KI-Servern noch verschärft. Da die Anzahl der GPUs steigt und die Rechenleistung einer einzelnen Karte weiter verbessert wird, werden die Effizienzprobleme dieses indirekten Pfads immer deutlicher. Um dieses Problem zu lösen, unternehmen KI-SSDs neue Versuche auf Systemebene, wie z. B.:
  • Unterstützung von GPU-direkten oder nahezu direkten Datenzugriffsmodi.
  • Verringerung der unnötigen CPU-Belastung.
  • Optimierung des Datenübertragungswegs zwischen Speicher und Beschleunigern.
Diese Entwürfe bedeuten nicht unbedingt, dass die CPU komplett umgangen wird, sondern vielmehr, dass die Datenkopier- und Übertragungszeiten in geeigneten Szenarien reduziert werden, um die Gesamteffizienz zu verbessern. In dieser Architektur ist der Speicher nicht mehr nur ein "passives Datenlager", sondern eher ein aktiver Datendienstknoten innerhalb des KI-Systems. Er muss die Zugriffsmuster der oberen Ebene verstehen, schnell auf gleichzeitige Anfragen reagieren und effizient mit den Recheneinheiten zusammenarbeiten. Dies ist auch der Grund, warum die Entwicklung von KI-SSDs oft eine enge Zusammenarbeit mit dem gesamten Maschinensystem und sogar mit GPU-Herstellern erfordert.

Große Kapazität und hohe Dichte

Da die Größe der Modellparameter immer weiter zunimmt und einzelne Modelle oft Hunderte von GB oder sogar mehrere TB erreichen, müssen Speichersysteme über eine ausreichende Kapazität und Dichte verfügen, um den tatsächlichen Einsatz zu unterstützen. Außerdem müssen KI-Systeme oft mehrere Versionen von Modellen, Trainingsdaten, Zwischenergebnissen, Vektordatenbanken, Indizes usw. speichern. Dies macht hohe Kapazität und hohe Dichte zu einer weiteren wichtigen Eigenschaft von KI-SSDs. Eine hohe Kapazität ist jedoch nicht "kostenlos". Die Erhöhung der Flash-Dichte ist oft mit Kosten verbunden:
  • Erhöhte Zugriffslatenz pro Flash-Die.
  • Begrenzte gleichzeitige Leistung.
  • Herausforderungen an Ausdauer und Zuverlässigkeit.
Daher müssen KI-SSDs neben dem Streben nach Kapazität auch den durch hohe Dichte verursachten Leistungsverlust durch Architektur- und Planungsdesigns minimieren.

Industriestatus und zukünftige Trends von AI SSD

Aus der Perspektive des Technologie-Lebenszyklus betrachtet, befindet sich KI-SSD immer noch in einem Stadium der "frühen Annahme und schnellen Erforschung". Einerseits ist KI-SSD nicht nur ein Marketingbegriff, der auf der konzeptionellen Ebene verbleibt; KI-Arbeitslasten existieren bereits und nehmen in Rechenzentren, Cloud-Computing-Plattformen und großen Unternehmen schnell zu. Andererseits hat AI SSD noch keine vollständig vereinheitlichte und standardisierte Produktform gebildet. Echte SSDs, die vollständig auf KI ausgelegt sind, sind immer noch hauptsächlich auf kundenspezifische, Vor-Forschungs- und High-End-Unternehmensprodukte beschränkt und sind von einer breiten Akzeptanz weit entfernt.
Mit dem Fortschritt der KI-SSD ändern sich die Rollen innerhalb der traditionellen Speicherkette. In der Vergangenheit konzentrierten sich die SSD-Hersteller mehr auf die Leistung und Zuverlässigkeit einzelner Geräte. Im KI-Szenario müssen sie früher am Design auf Systemebene teilnehmen, mit Anbietern von Servern, GPUs und Cloud-Plattformen zusammenarbeiten und eine tiefgreifende Optimierung für spezifische KI-Arbeitslasten durchführen. Dadurch verschwimmen die Grenzen zwischen Speicherherstellern, Controller-Herstellern und Systemintegratoren.
Künftige KI-SSDs werden wahrscheinlich nicht mehr nur "ein Gerät sein, das in einen PCIe-Steckplatz gesteckt wird", sondern sie werden auf Systemebene stärker mit den Rechenressourcen zusammen entwickelt werden. Dies kann sich in direkteren Datenpfaden, weniger Zwischenkopien und einer engeren Software-Hardware-Zusammenarbeit widerspiegeln. Dadurch wird die Grenze zwischen Speicherung und Berechnung weiter aufgeweicht. Andererseits ist es bei der Skalierung von KI-Systemen nicht unbedingt die optimale Lösung, alle Berechnungen an die GPU zu übertragen. In einigen Szenarien kann die Übernahme einiger Datenverarbeitungs- oder Vorverarbeitungsaufgaben durch das Speichergerät dazu beitragen, die Gesamtbelastung des Systems zu verringern. Obwohl sich solche Ideen noch in der Erprobungsphase befinden, stehen sie bereits im Mittelpunkt des Interesses der Industrie.
AI SSD ist keine neue Spezies, die grundlegend verändert, was Speicher ist, sondern eine Neugestaltung der Speicherrolle, die sich auf AI-Workloads konzentriert. Ihr Aufkommen ergibt sich aus den grundlegenden Veränderungen, die KI für die Datenzugriffsmuster mit sich bringt; ihr Wert liegt nicht in der übertriebenen Verbesserung einzelner Metriken, sondern in der kontinuierlichen Verbesserung der Systemeffizienz; ihre Zukunft wird nicht alle SSDs ersetzen, sondern ein unverzichtbarer Teil der KI-Infrastruktur werden. Wenn die GPU der "Motor" des KI-Systems ist, dann ist die KI-SSD eher das Treibstoffsystem, das für eine stabile, kontinuierliche Versorgung sorgt. Sie ist vielleicht nicht die auffälligste, aber sobald sie ausfällt, ist das gesamte System betroffen.
Nach oben blättern

Kontaktieren Sie uns

Füllen Sie das nachstehende Formular aus, und wir werden uns in Kürze mit Ihnen in Verbindung setzen.

Kontakt-Formular Produkt