Die steigende Nachfrage nach KI-Workloads treibt den Wettbewerb bei Netzwerkchips an

Die steigende Nachfrage nach KI-Workloads treibt den Wettbewerb bei Netzwerkchips an

18:07, 21.07.2023

Netzwerkunternehmen konkurrieren um die Entwicklung von Chips, die KI- und maschinelle Lernaufgaben bewältigen können. Die ASICs Silicon One G200 und G202 von Cisco zum Beispiel fordern die Angebote von Broadcom, NVIDIA und Marvell heraus. Die Nachfrage nach KI-Technologien wächst rasant: Die weltweiten Ausgaben für KI werden Prognosen zufolge im Jahr 2023 154 Milliarden US-Dollar und bis 2026 mindestens 300 Milliarden US-Dollar erreichen. Darüber hinaus wird laut einem Bericht der 650 Group bis 2027 fast jeder fünfte von Rechenzentren gekaufte Ethernet-Switch-Port für KI/ML und beschleunigtes Rechnen verwendet werden.

Wie Cisco Networking Chips die Workload-Zeit verbessern

Die Silicon One G200 und G202 ASICs von Cisco erledigen KI- und ML-Aufgaben mit 40 % weniger Switches bei 51,2 TBit/s. Sie ermöglichen einen 32K 400G GPUs AI/ML-Cluster in einem zweischichtigen Netzwerk mit 50 % weniger optischen Komponenten und 33 % weniger Netzwerkschichten. Diese Chips bieten einheitliches Routing und Switching und damit eine konvergente Architektur für Routing-, Switching- und KI/ML-Netzwerke. Durch den fortschrittlichen Lastausgleich und die extrem niedrige Latenz eignen sie sich hervorragend für die Verarbeitung von KI/ML-Workloads. Verbesserte Ethernet-Funktionen verbessern die Leistung weiter und reduzieren die Zeit für die Auftragsabwicklung um das 1,57-fache. Laut Cisco bieten der G200 und der G202 außerdem Lastausgleich, bessere Fehlerisolierung und einen vollständig gemeinsam genutzten Puffer, um die optische Leistung für KI/ML-Workloads zu unterstützen.

Chip-Hersteller stellen sich den Herausforderungen der KI

Laut Chopra führen Netzwerkhersteller Netzwerkchips mit höherer Bandbreite und Radix ein, die es ihnen ermöglichen, KI-Aufgaben zu bewältigen, indem sie mit einer größeren Anzahl von Geräten verbunden werden. Außerdem erleichtern sie die nahtlose Kommunikation zwischen GPUs, beseitigen Engpässe und verbessern die Leistung von KI/ML-Workloads.

views 1m, 24s
views 2
Teilen

War dieser Artikel für Sie hilfreich?

VPS beliebte Angebote

Weitere Artikel zu diesem Thema

cookie

Cookies und Datenschutz akzeptieren?

Wir verwenden Cookies, um sicherzustellen, dass wir Ihnen die beste Erfahrung auf unserer Website bieten. Wenn Sie fortfahren, ohne Ihre Einstellungen zu ändern, gehen wir davon aus, dass Sie mit dem Empfang aller Cookies auf der HostZealot-Website einverstanden sind.