August 23, 2024

într-un laborator imens Google La sediul nostru din Mountain View, California, sute de rafturi de servere bâzâie de-a lungul mai multor coridoare, efectuând sarcini mult mai puțin solicitante decât rularea motorului de căutare dominant la nivel mondial sau executarea sarcinilor de lucru pentru milioanele de clienți Google Cloud.

În schimb, ei rulează testele pe propriul microcip al Google, numit unitate de procesare tensorală (TPU).

TPU Google a fost pregătit inițial pentru sarcinile de lucru interne și este acum Disponibil pentru clienții cloud din 2018. Iulie, măr a dezvăluit-o Utilizați TPU Antrenează modelele AI care alimentează Apple Intelligence. De asemenea, Google se bazează pe TPU pentru a antrena și a rula chatbot-ul său Gemini.

„Există o credință fundamentală în lume că toate modelele de inteligență artificială, modelele mari de limbaj sunt antrenate NVIDIAși, desigur, Nvidia are partea leului din volumul de antrenament. Dar Google a urmat propriul drum aici.

Google este primul furnizor de cloud care a produs cipuri personalizate de inteligență artificială. Trei ani mai târziu, Amazon Serviciul de rețea își declară Primul cip cloud AI,raţionament. Microsoftprimul Cip personalizat de inteligență artificialăMaia, nu a fost anunțată decât la sfârșitul anului 2023.

Dar a fi numărul 1 în cipurile de inteligență artificială nu s-a tradus în leadership general. cursa de sobolani Inteligența artificială generativă. de la Google face față criticilor pentru O lansare de produs greșităGemeni a apărut cu mai mult de un an mai târziu decât OpenAI Chat GPT.

Cu toate acestea, impulsul Google Cloud se datorează parțial produselor sale de inteligență artificială. Compania mamă Google raport alfabetic Veniturile din cloud au crescut cu 29% în cel mai recent trimestru, veniturile trimestriale depășind pentru prima dată 10 miliarde USD.

„Era cloud-ului de inteligență artificială a schimbat complet modul în care oamenii privesc companiile, iar această diferențiere a cipurilor, TPU-ul în sine, poate fi unul dintre cele mai mari motive pentru care Google a trecut de la al treilea cloud la adevărata paritate în ochii unor oameni , poate că abilitățile sale AI sunt chiar înaintea celorlalți doi nori”, a spus Newman.

„Un experiment de gândire simplu, dar puternic”

În iulie, CNBC a vizitat pentru prima dată laboratorul de cipuri Google prin intermediul camerei și l-a intervievat pe Amin Vahdat, șeful cipurilor cloud personalizate. El lucra deja la Google în 2014, când compania s-a gândit pentru prima dată la ideea de a face cipuri.

Pe 23 iulie 2024, Amin Vahdat, vicepreședintele Google pentru Machine Learning, Systems and Cloud AI, a demonstrat versiunea 4 a TPU la sediul Google din Mountain View, California.

Mark Ganley

„Totul a început cu un experiment de gândire simplu, dar puternic”, a spus Wahdat. „Unii lideri ai companiei pun întrebarea: ce se întâmplă dacă utilizatorii Google vor să interacționeze cu Google doar prin voce timp de 30 de secunde pe zi? De câtă putere de calcul avem nevoie pentru a ne sprijini utilizatorii?”

Grupul a stabilit că Google are nevoie Dublați numărul de computere din centrul de date. Așa că caută soluții mai bune.

„Ne-am dat seama că putem construi hardware personalizat, nu hardware de uz general, ci hardware personalizat (în acest caz, unități de procesare tensor) pentru a susține acest lucru mai eficient. De fapt, mai eficient decât alte Hardware-ul este de 100 de ori mai mare”, a spus Wahda. .

Centrele de date Google se bazează în continuare pe unități centrale de procesare (CPU) de uz general și pe unitățile de procesare grafică (GPU) ale Nvidia. TPU-ul Google este un alt tip de cip, numit circuit integrat specific pentru aplicație (ASIC), care este adaptat pentru un anumit scop. TPU se concentrează pe inteligența artificială. Google face un alt ASIC axat pe video numit Video Coding Unit.

Google produce, de asemenea, cipuri personalizate pentru dispozitivele sale, similare cu Strategia de cip personalizată a Apple. Tensorul G4 alimentează Google Noul Pixel 9 cu suport AIal cărui nou cip A1 alimentează Pixel Buds Pro 2.

Cu toate acestea, TPU este ceea ce diferențiază Google. Lansat în 2015, a fost primul de acest gen. Potrivit Future Group.

Google a inventat termenul după termenul algebric „tensor”, care se referă la înmulțirile matriceale la scară mare care apar rapid în aplicațiile avansate de inteligență artificială.

Odată cu lansarea celui de-al doilea TPU în 2018, Google și-a extins atenția de la inferență la instruire și Faceți-l disponibil pentru clienții cloud Rulați sarcini de lucru cu cipuri de vârf, cum ar fi GPU-urile Nvidia.

„Dacă utilizați GPU-uri, acestea sunt mai programabile și mai flexibile”, a spus Stacy Rasgon, analist senior de semiconductori la Bernstein Research, „Dar oferta lor a fost redusă”.

Boom-ul inteligenței artificiale a dus la creșterea prețului acțiunilor Nvidia, valoarea de piață a producătorului de cipuri urcând la 3 trilioane de dolari în iunie, depășind Alphabet și concurând cu Apple și Microsoft pentru poziția producătorului global de cipuri. Cea mai valoroasă companie listată din lume.

„Sincer, aceste acceleratoare AI specializate nu sunt nici pe departe la fel de flexibile sau puternice ca platforma Nvidia și asta așteaptă să vadă piața: poate cineva să facă diferența în acest spațiu?”

acum stim Apple folosește TPU de la Google Pentru a-și antrena modelele AI, testul real va veni pe măsură ce aceste capacități complete AI vor fi lansate pe iPhone și Mac anul viitor.

Broadcom și TSMC

Dezvoltarea unui înlocuitor pentru motorul de inteligență artificială al Nvidia nu este o sarcină ușoară. A șasea generație de TPU de la Google, numit Trillium, va fi lansat mai târziu în acest an.

Google a prezentat la CNBC cea de-a șasea versiune a TPU, Trillium, pe 23 iulie 2024, în Mountain View, California.

Mark Ganley

“Este scump. Ai nevoie de multă scară”, a spus Rasgon. „Deci nu este ceva ce poate face toată lumea. Dar acești hiperscalatori au amploarea, capitalul și resursele pentru a merge pe această cale.”

Acest proces este prea complex și costisitor pentru ca întreprinderile foarte mari să poată fi finalizate singure. De la lansarea primului TPU, Google a lucrat cu Broadcomun dezvoltator de cipuri, ajută și el Yuan proiecta cipul său de inteligență artificială. Broadcom Spune că a cheltuit mai mult de 3 miliarde de dolari Faceți posibile aceste parteneriate.

„Cipurile AI – sunt foarte complexe. Sunt o mulțime de lucruri în ele. Așa că Google aduce computerul”, a spus Rasgon. „Broadcom este responsabil pentru toate perifericele. Ei sunt responsabili pentru I/O și deserializatortoate părțile diferite care înconjoară acel calcul. Ei sunt, de asemenea, responsabili de ambalare.

Designul final este apoi trimis la o unitate de fabricație, sau un fabric, pentru producție – în principal unități deținute de cei mai mari producători de cipuri din lume, British Semiconductorcare produce 92% dintre cei mai avansati semiconductori din lume.

Întrebat dacă Google avea măsuri de protecție în cazul în care s-a întâmplat cel mai rău în domeniul geopolitic dintre China și Taiwan, Wahda a spus: „Este cu siguranță ceva pentru care suntem pregătiți și luăm în considerare și noi. Dar să sperăm că nu este chiar așa.

Protecția împotriva acestor riscuri este principalul motiv pentru care Casa Albă oferă 52 de miliarde de dolari în finanțare în temeiul Legii CHIPS companiilor care construiesc fabrici de napolitane în Statele Unite. cea mai mare parte merge Intel, British Semiconductorși Samsung Până acum.

Procesor și sursă de alimentare

Google și-a prezentat noul procesor Axion la CNBC,

Mark Ganley

„Acum putem aduce ultima piesă a puzzle-ului, care este procesorul”, a spus Vahdat. „Multe dintre serviciile noastre interne, fie Interogare marefie că este cheiereclame YouTube și multe altele sunt difuzate pe Axion.

Google a întârziat la jocul CPU. Amazon și-a lansat gravitaţie procesoare 2018. Alibaba Cipul de server lansat 2021. Microsoft anunță CPU noiembrie.

Când a fost întrebat de ce Google nu a produs procesoare mai devreme, Vahdat a spus: „Obiectivul nostru a fost întotdeauna să oferim cea mai mare valoare clienților noștri, iar asta începe cu TPU-urile, unitățile noastre de codificare video și rețeaua noastră. Chiar credem că acum este momentul. .

Toate aceste procesoare de la producători fără cipuri (inclusiv Google) sunt alimentate de braţ Chip Architecture – o alternativă mai personalizabilă și mai eficientă din punct de vedere energetic la modelele x86 tradiționale Intel şi AMD. Eficiența energetică este critică, deoarece serverele AI sunt de așteptat să rămână fără suc până în 2027 la fel de multă putere ca o țară în fiecare an Exact ca Argentina. Cea mai recentă protecție a mediului de la Google Raport Afișează emisiile cu aproape 50% Din 2019 până în 2023, acest lucru se datorează parțial creșterii centrelor de date care alimentează inteligența artificială.

„Fără eficiența acestor napolitane, aceste cifre ar putea fi într-un loc foarte diferit”, a spus Wahdat „Rămânem angajați să conducem efectiv amprenta de carbon a infrastructurii noastre (24/7) și să o menținem Push la zero”.

Sunt necesare cantități mari de apă pentru a răci serverele care antrenează și rulează inteligența artificială. De aceea, TPU-urile de a treia generație de la Google încep să folosească răcirea directă a plachetelor, care utilizează mult mai puțină apă. Acesta este și cazul Nvidia își răcește cel mai recent Blackwell GPU.

În ciuda provocărilor, de la geopolitică la electricitate și apă, Google rămâne angajat să dezvolte instrumente de inteligență artificială generativă și să producă propriile cipuri.

„Nu am văzut niciodată așa ceva și nu dă semne de încetinire”, a spus Wahdat „Hardware-ul va juca un rol foarte important acolo”.

About The Author

Leave a Reply

Your email address will not be published. Required fields are marked *