Microsoft kündigt den ersten KI-Chip Maia 100 an

Microsoft kündigt den ersten KI-Chip Maia 100 an

14:43, 02.09.2024

Auf der Ignite 2023-Konferenz hat Microsoft erstmals über die Entwicklung eines eigenen KI-Beschleunigerchips mit dem Namen Maia gesprochen und kurz vor der Veranstaltung die Spezifikationen des Maia 100 bekannt gegeben. Maia 100 ist einer der größten TSMC-Prozessoren mit 5nm-Knoten und wurde speziell für hohe Arbeitslasten in Azure entwickelt.


Maia 100 hat die folgenden Eigenschaften:

  • Chipgröße - 820 mm2;
  • Gehäuse - TSMC N5-Prozess mit COWOS-S-Interposer-Technologie;
  • HBM BW/Cap - 1,8 TB/s bei 64 GB HBM2E;
  • Peak Dense Tensor POPS - 6 Bits: 3, 9 Bits: 1,5, BF16: 0,8;
  • L1/L2 - 500 MB;
  • Backend-Netzwerk-BW - 600 GB/s (12X400 GB);
  • Host-BW (PCIe) = 32 GB/s PCIe Gen5X8;
  • TDP-Anforderungen - 700W;
  • TDP - 500W.

Microsoft Maia 100 zeichnet sich durch vertikale Integration zur Kosten- und Leistungsoptimierung aus, sowie durch kundenindividuelle Server Boards mit speziell entwickelten Racks und einem Software-Stack zur Leistungssteigerung.


Der SoC Maia 100 hat die folgende Architektur:

  • Hochgeschwindigkeits-Tensorblock für Training und Ausgabeverarbeitung mit Unterstützung für eine breite Palette von Datentypen 16xRx16.
  • Vektorprozessor als lose gekoppelter superskalarer Motor, der mit einer Befehlssatzarchitektur (ISA) entwickelt wurde, um eine breite Palette von Datentypen einschließlich FP32 und BF16 zu unterstützen.
  • Direkter Speicherzugriff (DMA), der verschiedene Tensor-Segmentierungsschemata unterstützt.
  • Asynchrone Programmierung durch Hardware-Semaphoren.
  • L1 und L2 werden durch Software verwaltet, um eine bessere Datennutzung und Energieeffizienz zu erreichen.
  • Maia 100 nutzt eine Ethernet-basierte Verbindung mit einem benutzerdefinierten RoCE-ähnlichen Protokoll für Berechnungen mit extrem hoher Bandbreite und unterstützt eine All-Gather- und Scatter-Reduction-Bandbreite von bis zu 4800 Gbit/s sowie eine All-to-All-Bandbreite von bis zu 1200 Gbit/s.

Das Maia SDK ermöglicht eine schnelle Portierung von PyTorch- und Triton-Modellen auf Maia, mit Tools für eine einfache Bereitstellung auf Azure OpenAI Services. Entwickler können entweder die Triton-Programmiersprache für DNNs oder die Maia-API für optimierte Leistung verwenden. Das SDK unterstützt auch PyTorch-Modelle von Haus aus.

views 1m, 29s
views 2
Teilen

War dieser Artikel für Sie hilfreich?

VPS beliebte Angebote

Weitere Artikel zu diesem Thema

cookie

Cookies und Datenschutz akzeptieren?

Wir verwenden Cookies, um sicherzustellen, dass wir Ihnen die beste Erfahrung auf unserer Website bieten. Wenn Sie fortfahren, ohne Ihre Einstellungen zu ändern, gehen wir davon aus, dass Sie mit dem Empfang aller Cookies auf der HostZealot-Website einverstanden sind.