xAIs Colossus 2 wird offiziell als das WELTWEIT ERSTE Gigawatt-große KI-Trainingsdatacenter anerkannt Als Nächstes: xAI hat das Ziel, die erste Organisation zu sein, die 10GW, 100GW und sogar 1TW an kohärenter Trainingsrechenleistung online bringt Im Colossus 1 hat das Team in nur 122 Tagen über 100.000 H100/H200 GPUs von der Konstruktion bis zum voll funktionsfähigen Training bereitgestellt Die meisten Datacenter ähnlicher Größe benötigen 2-4 Jahre Von der Ankunft der ersten GPUs bis zur vollständigen Rack-Installation, Vernetzung, Kühlung, Inbetriebnahme, Bereitstellung und dem vollumfänglichen Training... alles in nur 19 Tagen Nvidia-CEO Jensen Huang sagte: "Das ist übermenschlich. Es gibt nur eine Person auf der Welt, die das tun könnte, Elon Musk"