Amazon se pregătește să lanseze cel mai recent cip de inteligență artificială (AI), deoarece conglomeratul tehnologic mare încearcă să obțină randamente de la miliarde de dolari în investiții cu semiconductor și să -și reducă dependența de liderul pieței Nvidia.
Executivii diviziei de cloud computing Amazon investesc foarte mult în cipuri personalizate, în speranța de a îmbunătăți eficiența a zeci de centre de date și, în final, să reducă costurile pentru sine și clienții Amazon AWS.
Această lucrare este condusă de Annapurna Labs, o pornire a cipurilor cu sediul în Austin, pe care Amazon a achiziționat -o pentru 350 de milioane de dolari la începutul anului 2015. Ultimele realizări ale lui Annapurna sunt așteptate să fie prezentate în decembrie, când Amazon va anunța disponibilitatea pe scară largă a „Trainium 2”, careface parte dintr -o serie de cipuri AI concepute pentru a antrena cele mai mari modele.
Trainium 2 este deja în curs de testare de către Anthropic (concurentul lui OpenAI, care a primit 4 miliarde de dolari în sprijinul Amazon), precum și VNET, Deutsche Telekom, Ricoh Japonia și Stockmark.
Amazon AWS și Annapurna își propun să concureze cu Nvidia, care a devenit una dintre cele mai valoroase companii din lume datorită poziției sale dominante pe piața AI Chip.
Sperăm să fim cel mai bun loc pentru a rula jetoane Nvidia ", a spus Dave Brown, vicepreședinte al serviciilor de calcul și rețea la Amazon AWS. Dar, în același timp, credem că adoptarea de soluții alternative este benefică", a spus Amazon, afirmând că esteAlte „Inferentia” profesională „Inferentia” a redus costurile de operare cu 40% și pot fi utilizate pentru modele AI generative responsive.
Amazon se așteaptă acum cheltuieli de capital de aproximativ 75 de miliarde de dolari în 2024, majoritatea urmând să se îndrepte spre infrastructura tehnologică.În timpul celei mai recente conferințe a conferinței de câștiguri a companiei, CEO -ul Andy Jassy a declarat că se așteaptă ca compania să aibă mai multe cheltuieli în 2025.
Aceasta reprezintă o creștere de la cheltuielile întregi de 48,4 miliarde de dolari americani în 2023. Cei mai mari furnizori de cloud, inclusiv Microsoft și Google, investesc foarte mult în inteligența artificială, iar această tendință arată un semn de slăbire.
Amazon, Microsoft și Meta sunt clienți importanți ai NVIDIA, dar proiectează, de asemenea, propriile cipuri de centru de date pentru a pune bazele valurilor de creștere AI pe care o anticipează.
Daniel Newman de la Futurum Group a spus: „Fiecare mare furnizor de cloud se îndreaptă cu fervoare către mai multă verticalitate și, dacă este posibil, să se îndrepte spre o stivă„ tehnologie cip ”omogenă și integrată
Newman a subliniat că „de la Openai la Apple, toată lumea încearcă să -și construiască propriile jetoane”, deoarece caută „costuri de producție mai mici, marje de profit mai mari, disponibilitate mai mare și mai mult control”.
După ce a început să construiască cipul de securitate „Nitro” pentru AWS, Annapurna a dezvoltat mai multe generații de Graviton, o unitate de procesare centrală bazată pe ARM (CPU) care oferă o alternativă cu putere redusă la mainframe-urile tradiționale de server oferite de Intel sau AMD.
Analistul TechInsights, G Dan Hutcheson, a spus: „Un avantaj major al AWS este că jetoanele lor pot folosi mai puțină putere, iar centrele de date pot fi mai eficiente”, reducând astfel costurile.El a spus că, dacă unitatea de procesare grafică a NVIDIA (GPU) este un instrument puternic de scop general (pentru mașini precum vagoanele stației), atunci Amazon își poate optimiza cipurile pentru sarcini și servicii specifice (cum ar fi mașini compacte sau hatchback).
Cu toate acestea, până în prezent, AWS și Annapurna au slăbit cu greu poziția dominantă a Nvidia în infrastructura AI.
Veniturile din vânzările din centrul de date AI de la NVIDIA au ajuns la 26,3 miliarde de dolari în al doilea trimestru al anului fiscal 2024. Această cifră este aceeași cu veniturile întregii divizii AWS anunțate de Amazon în al doilea trimestru.Se raportează că doar o mică parte din ea poate fi atribuită clienților care rulează sarcini de muncă AI în infrastructura Annapurna.
În ceea ce privește performanța brută a cipurilor AWS și a cipurilor NVIDIA, Amazon evită comparații directe și nu își trimite jetoanele la repere de performanță independente.
Consultantul Moor Insights & Strategy Chip Patrick Moorhead consideră că afirmația lui Amazon privind o îmbunătățire a performanței de 4 ori între Trainium 1 și Trainium 2 este exactă, deoarece a examinat compania de ani buni.Dar datele de performanță pot să nu fie la fel de importante ca să oferim pur și simplu clienților mai multe opțiuni.
Oamenii apreciază toate inovațiile aduse de Nvidia, dar nimeni nu vrea să vadă Nvidia să ocupe 90% din cota de piață ”, a adăugat el.Această situație nu va dura prea mult