Kashiwa, une mise à jour de la plate-forme d'intelligence artificielle ABCI, qui a été lancée en 2018, a annoncé son intention de construire une nouvelle infrastructure cloud de pont de l'intelligence artificielle 3.0 (ABCI 3.0), une mise à jour de la plate-forme d'intelligence artificielle ABCı lancée en 2018. Selon le blog NVIDIA NVIDIA, le nouveau Super Computer sera proposé en tant que service nuageux à la fois aux organisations publiques et privées.

L'entrepreneur est HPE, qui installera un système qui utilise la plate-forme Cray XD avec les accélérateurs NVIDIA H200 avec la connexion intermédiaire Infiniband 200G Quantum-2 Infiniband. HPE n'a pas expliqué le nombre total de nœuds, le coût du système et le timing temps-temps. Selon le registre, nous parlons d'un système avec des nœuds 5U Cray XD670 qui peuvent accueillir huit accélérateur NVIDIA H200 / H100 et une paire de rapides Intel Xeon Emerald. De plus, la machine ABCI-Q axée sur la recherche en calcul quantique et hybride est basée sur les accélérateurs NVIDIA H100.

HPE, ABCI 3.0 environ 6,2 eflops (FP16?) Ou 410 Pflops (FP64), et le super ordinateur de l'intelligence artificielle le plus rapide au Japon devrait être. Le projet ABCI 3.0 est soutenu par le ministère de l'économie, du commerce et de l'industrie (METI) afin de renforcer les ressources d'information du pays par le biais du Fonds de sécurité économique. Cela fait partie de la tentative de texte de 1 milliard de dollars, y compris à la fois le programme ABCI et les investissements dans le cloud soutenu par l'intelligence artificielle.