AMD erreicht fast das 30-fache Energieeffizienz-Ziel ein Jahr früher — Durchbruch-IA-Server zeigen außergewöhnliche Energieeffizienz
15:45, 16.01.2025
Erreichung bemerkenswerter Effizienz
AMD hat bedeutende Fortschritte in der Energieeffizienz gemacht und fast sein ehrgeiziges Ziel 30x25 erreicht — eine Verbesserung der Energieeffizienz um das 30-fache bis 2025 — und das ein Jahr früher. Mit den neuesten EPYC 9005 „Turin“-CPUs und Instinct MI300X-GPUs demonstrierte AMD eine Verbesserung der Leistungseffizienz um das 28,3-fache im Vergleich zu einer 2020er-Konfiguration.
Zum Testen verwendete AMD ein System, das aus zwei 64-Kern-EPYC 9575F-CPUs, acht Instinct MI300X-Beschleunigern und 2.304 GB DDR5-Speicher auf dem Llama 3.1-70B-Inferenzmodell bestand. Obwohl die Spezifikationen des 2020er Vergleichssystems nicht offengelegt wurden, verwendete vermutlich AMDs EPYC 7002-Serie und Instinct MI100-Beschleuniger. Architektonische Fortschritte und Softwareoptimierungen haben die dramatischen Verbesserungen vorangetrieben, darunter Verbesserungen in der Hardware wie die Unterstützung von FP8, Speichersubsysteme und die allgemeine Rechenleistung.
Zukünftige Innovationen und Nachhaltigkeitsziele
Der technologische Schwung von AMD geht weiter mit der kürzlich eingeführten Instinct MI325X-Beschleuniger, die über 288 GB HBM3E-Speicher und verbesserte FP8- und FP16-Rechenleistung verfügen. Der kommende MI355X, basierend auf der CDNA-4-Architektur, wird die Spitzenleistung auf 9,2 PetaFLOPS mit FP4 steigern.
Laut Sam Naffziger, Senior VP von AMD, stellt die Strategie des Co-Designs von Hardware und Software sicher, dass das Unternehmen auf dem richtigen Weg ist, um sein 30x-Effizienzziel zu übertreffen. Die Fortschritte von AMD unterstreichen das Engagement des Unternehmens für Nachhaltigkeit und Leistung in IA und HPC und setzen einen hohen Maßstab für die Branche.
Dieser Erfolg hebt AMDs Führungsposition in der energieeffizienten Berechnung hervor, wobei große Effizienzgewinne den Weg für grünere Innovationen im Bereich IA ebnen.