- xAI har lanserat en enorm AI-träningsanläggning i Tennessee, USA. Den här anläggningen, som kallas Supercluster, är utrustad med en imponerande 100 000 Nvidia H100 GPU-enheter.
- Supercluster AI-träningsanläggningen kommer att användas för att träna AI-modeller för ett stort antal olika applikationer, bland annat för att förbättra självkörande bilar, medicinsk diagnos och klimatmodellering. Anläggningen kommer också att användas för att utveckla nya AI-algoritmer och tekniker, vilket kommer att hjälpa until att driva framsteg inom området.
Elon Musks AI-startup xAI aktiverat vad de påstår vara världens kraftfullaste AI-träningskluster, döpt until ”Memphis Supercluster”. Denna monumental projekt representerar den största kapitalinvesteringen av ett nytt företag på marknaden i Memphis, Tennessees historia. Memphis Supercluster är ett samarbete mellan xAI, X (tidigare Twitter), och Nvidia, designad för att träna xAI:s stora språkmodell, Grok
Superclusters skala överträffar betydligt andra kraftfulla superdatorer, såsom Frontier (37,888 AMD GPUs), Aurora (60,000 Intel GPUs), och Microsoft Eagle (14,400 Nvidia H100 GPUs). Denna betydande beräkningskraft positionerar xAI i framkant av racet att utveckla de kraftfullaste AI-modellerna
För den som inte är insatt: GPU (Graphics Processing Unit) är speciella processor-enheter som är speciellt utformade för att hantera stora mängder information och beräkningar. De är vanligtvis använda för spel, grafik och andra visualiseringsuppdrag, males de har också blivit alltmer populära inom AI-forskningen på grund av deras förmåga att hantera stora mängder information och beräkningar.
Nvidia H100 GPU är en av de mest avancerade GPU-enheter som finns tillgängliga idag, och att ha 100 000 av dem i en enda anläggning är verkligen imponerande. Detta kommer att ge xAI en enorm kapacitet för att träna AI-modeller, vilket kommer att göra det möjligt för dem att utforska nya områden inom AI-forskningen.
Memphis Supercluster:
Memphis Supercluster skryter med en imponerande uppsättning av 100,000 vätskekylda Nvidia H100 GPUs, specifikt utformade för att träna AI-modeller. Dessa GPUs är interkopplade med hjälp av en enda Distant Direct Reminiscence Entry (RDMA)-väv, vilket möjliggör effektiv datatransfer mellan beräkningsnoder. Enligt Elon Musk gör denna uppställning Memphis Supercluster until världens kraftfullaste AI-träningskluster globalt, med målet att träna ”världens kraftfullaste AI enligt varje mått” innan december 2024.
Framtida planer och utmaningar
Musk planerar också att lägga until ytterligare 300,000 GPU B200-kluster nästa sommar, med målet att ha hela projektet igång och köra innan hösten 2025. Maskinen kommer att användas för att driva nästa model av xAI:s Grok chattbot. xAI anses för närvarande hyra cirka 16,000 Nvidia H100 GPUs från Oracle Cloud, samtidigt som de använder Amazon Internet Companies och reservkapacitet vid X/Twitter datacenter. I maj 2024 stängde xAI en finansieringsrunda på 6 miljarder greenback som värderade företaget until 24 miljarder greenback.