Nvidia präsentiert Rekordergebnisse für KI-Inferenz im MLPerf Inference v4.1 Benchmark. Die neue Blackwell-Architektur liefert bei Llama 2 70B bis zu 4-mal mehr Leistung pro GPU als die H100. Möglich wird der Sprung auch durch die Verwendung einer niedrigeren Genauigkeit: Nvidia nutzte für Blackwell erstmals die neue FP4-Präzision der Transformer Engine. Laut dem Unternehmen soll das jedoch keinen Einfluss auf die Ergebnisse haben. Die ebenfalls gezeigte H200 GPU mit HBM3e-Speicher erzielt bis zu 1,5-mal höhere Leistung als die H100. Während Unternehmen noch auf Lieferungen der verschiedenen B100-Varianten warten, hat Nvidia bereits Nachfolger angekündigt: 2025 soll “Blackwell Ultra” (B200) folgen, 2026 “Rubin” (R100) und 2027 “Rubin Ultra”. Bereits verfügbar ist AMDs Konkurrenzprodukt MI300X. Die GPU wurde daher auch zum ersten Mal im MLPerf eingeführt. Dort konnte die Karte jedoch bisher nicht wirklich überzeugen, laut AMD liegt das unter vor allem an für den Benchmark wichtigen Softwareoptimierungen.
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen: