Kashiwa, ein Update der 2018 initiierten ABCI -Plattform für künstliche Intelligenz, kündigte Pläne zum Aufbau einer neuen Cloud -Infrastruktur für künstliche Intelligenz -Brücke (ABCI 3.0), einem Update des ABCı -Künstlichen Intelligenzplattform, der 2018 initiiert wurde.
Der Auftragnehmer ist HPE, das ein System installiert, das die Cray XD-Plattform mit den NVIDIA H200-Beschleunigern mit der 200-g-NVIDIA Quantum-2 InfiniBand Intermediate-Verbindung verwendet. HPE erklärte nicht die Gesamtzahl der Knoten, die Kosten des Systems und das Time -Time -Time -Timing. Laut dem Register sprechen wir über ein System mit 5U Cray XD670 -Knoten, das acht NVIDIA H200/H100 -Beschleuniger und ein Paar Intel Xeon Emerald Rapids ausrichten kann. Darüber hinaus basiert die ABCI-Q-Maschine, die sich auf die Forschung in der Quanten- und Hybridberechnung konzentriert, auf den NVIDIA H100-Beschleunigern.
HPE, ABCI 3.0 etwa 6,2 Eflops (FP16?) Oder 410 PLOPS (FP64) und der schnellste Super -Computer der künstlichen Intelligenz in Japan wird erwartet. Das ABCI 3.0 -Projekt wird vom Ministerium für Wirtschaft, Handel und Industrie (Meti) unterstützt, um die Informationsressourcen des Landes durch den Wirtschaftssicherheitsfonds zu stärken. Dies ist Teil des breiteren Textversuchs in Höhe von 1 Milliarde US -Dollar, einschließlich des ABCI -Programms und der Investitionen in künstliche Intelligenz -unterstützte Cloud.