June 2, 2024

Cofondatorul și CEO-ul Nvidia Corporation, Jensen Huang, la Conferința Nvidia GPU Technology (GTC) din San Jose, California, SUA, marți, 19 martie 2024.

David Paul Morris |. David Paul Morris Bloomberg |

NVIDIA Un câștig de 27% în mai a adus capitalizarea sa de piață la 2,7 trilioane de dolari, doar în urmă Microsoft și măr Deveniți una dintre cele mai valoroase companii publice din lume. producator de cipuri raport Vânzările s-au triplat de la an la an pentru al treilea trimestru consecutiv, deoarece cererea de procesoare cu inteligență artificială a crescut.

Mizuho Securities estimează că Nvidia controlează 70% până la 95% din piața cipurilor AI utilizate pentru antrenarea și implementarea modelelor precum GPT-ul OpenAI. Marja brută de 78% evidențiază puterea de preț a Nvidia și este un număr surprinzător de mare pentru o companie de hardware care trebuie să producă și să livreze produse fizice.

Producători de cipuri concurenți Intel și Microaparate avansate Marjele de profit brute în ultimul trimestru au fost de 41%, respectiv 47%.

Poziția NVIDIA pe piața cipurilor AI a fost descrisă de unii experți drept un șanț. Unitățile sale emblematice de procesare grafică (GPU) AI, cum ar fi H100, combinate cu software-ul CUDA al companiei, l-au pus atât de mult înaintea concurenței, încât apelarea la alternative era aproape de neconceput.

Cu toate acestea, CEO-ul Nvidia Jensen Huang valoarea netă Valoarea de piață a companiei a crescut de la 3 miliarde de dolari la aproximativ 90 de miliarde de dolari în ultimii cinci ani și el a spus că este „îngrijorat și îngrijorat” de faptul că compania de 31 de ani își pierde avantajul. El a recunoscut la o conferință de la sfârșitul anului trecut că au apărut mulți concurenți puternici.

„Nu cred că oamenii încearcă să mă falimenteze”, Huang explicaNoiembrie. „Probabil știu că lucrează la asta, așa că e diferit”.

Nvidia a promis că va lansa Există noi arhitecturi de cip AI în fiecare anmai degrabă decât o dată la doi ani, așa cum a fost cazul istoric, și lansare software nou Acest lucru ar putea consolida și mai mult poziția cipurilor sale în software-ul de inteligență artificială.

Dar GPU-urile Nvidia nu sunt singurele cipuri capabile să ruleze operațiunile matematice complexe care alimentează inteligența artificială generatoare. Dacă cipurile mai puțin puternice pot face aceeași treabă, paranoia lui Huang poate fi justificată.

Trecerea de la modelele de instruire AI la așa-numita inferență (sau modele de implementare) poate oferi companiilor o oportunitate de a înlocui GPU-urile Nvidia, mai ales dacă sunt mai ieftin de cumpărat și de rulat. Cipul emblematic al Nvidia costă aproximativ 30.000 USD sau mai multoferind clienților suficientă motivație pentru a căuta alternative.

„Nvidia vrea să aibă 100 la sută din date, dar clienților nu le va plăcea ca Nvidia să aibă 100 la sută din date”, a spus Sid Sheth, co-fondatorul ambițiosului rival D-Matrix. „Este o oportunitate atât de mare. Ar fi nesănătos ca orice companie să profite de toate”.

Fondată în 2019, D-Matrix intenționează să lanseze o placă semiconductoare pentru servere la sfârșitul acestui an, cu scopul de a reduce costul și latența rulării modelelor de inteligență artificială. companie Reglați în sus A fost 110 milioane de dolari în septembrie.

Pe lângă D-Matrix, companii, de la multinaționale la startup-uri emergente, concurează pentru o cotă din piața chipurilor de inteligență artificială, care ar putea atinge 400 de miliarde de dolari în vânzări anuale în următorii cinci ani, potrivit analiștilor de piață și AMD. Nvidia a generat venituri de aproximativ 80 de miliarde de dolari în ultimele patru trimestre, iar Bank of America a estimat vânzările de cipuri AI ale companiei anul trecut la 34,5 miliarde de dolari.

Multe companii care adoptă GPU-uri Nvidia cred că diferitele arhitecturi sau anumite compromisuri pot produce cipuri mai bune pentru sarcini specifice. Producătorii de dispozitive dezvoltă, de asemenea, tehnologie care ar putea în cele din urmă să facă marea cantitate de calcul AI realizată acum în clustere mari bazate pe GPU în cloud.

„Nimeni nu poate nega că astăzi Nvidia este hardware-ul pe care vrei să-l antrenezi și să rulezi modele AI”, a declarat Fernando Vidal, co-fondator al 3Fourteen Research. a spus CNBC. „Dar s-au înregistrat progrese progresive în direcția egalizării condițiilor de joc, de la companii foarte mari care își dezvoltă propriile cipuri, până la startup-uri mai mici care își proiectează propriile cipuri.”

CEO-ul AMD, Lisa Su, vrea ca investitorii să creadă că există suficient loc în spațiu pentru multe companii de succes.

„Cheia este că există o mulțime de opțiuni”, a spus Su reporterilor în decembrie, când compania ei a dezvăluit cel mai recent cip de inteligență artificială. „Cred că vom vedea o situație în care nu există o singură soluție, ci mai multe soluții”.

Alți producători mari de cipuri

Lisa Su a demonstrat cipul AMD Instinct MI300 în timpul discursului său principal la CES 2023 din Las Vegas, Nevada, pe 4 ianuarie 2023.

David Becker |. Getty Images

AMD produce GPU-uri pentru jocuri și, la fel ca Nvidia, le aplică inteligenței artificiale în centrele de date. Cipul său emblematic este Instinct MI300X. Microsoft a achiziționat procesoare AMD și a oferit acces la acestea prin cloud-ul său Azure.

La evenimentul de lansare, Su a subliniat performanța superioară a cipului în inferență, mai degrabă decât în ​​competiția de antrenament cu Nvidia. Săptămâna trecută, Microsoft a spus că folosește GPU-uri AMD Instinct pentru a-și alimenta modelele Copilot. Analiștii Morgan Stanley cred că această știre indică faptul că vânzările de cipuri de inteligență artificială ale AMD în acest an pot depăși ținta publică a companiei de 4 miliarde de dolari.

Intel, ale cărui venituri au fost depășite de Nvidia anul trecut, încearcă și ea să pună un loc în domeniul inteligenței artificiale. Compania a lansat recent Gaudi 3, a treia versiune a acceleratorului său AI. Modelele de antrenament sunt mai rapide.

Analiștii de la Bank of America au estimat recent că ponderea Intel pe piața chipurilor de inteligență artificială va fi mai mică de 1% în acest an. Intel a spus că are un stoc de comenzi de 2 miliarde de dolari pentru cip.

Principala barieră în calea adoptării mai largi poate fi software-ul. Atât AMD, cât și Intel participă la o conferință numită „ Fundația UXLinclude Googleo companie dedicată creării unei alternative gratuite la Nvidia CUDA, hardware-ul folosit pentru a controla aplicațiile de inteligență artificială.

Cei mai buni clienți ai NVIDIA

Cum își proiectează AWS propriile cipuri pentru a le ajuta să ajungă din urmă cu Microsoft și Google în cursa pentru generarea de inteligență artificială

O potențială provocare pentru Nvidia este că concurează cu unii dintre cei mai mari clienți ai săi. Furnizorii de cloud includ Google, Microsoft și Amazon Ambele construiesc procesoare pentru uz intern. Cei trei mari ai tehnologiei, plus Oracolreprezentând peste 40% din veniturile Nvidia.

Amazon și-a lansat propriul cip de inteligență artificială în 2018, sub numele de marcă Inferentia. Inferentia este acum disponibilă la a doua ediție. În 2021, Amazon Web Services a lansat Traium pentru antrenament. Clienții nu pot cumpăra cipuri, dar pot închiria sisteme prin AWS, care utilizează cipurile ca Mai rentabil decât Nvidia.

Google este probabil furnizorul de cloud cel mai angajat cu propriile cipuri. Compania a folosit ceea ce numește unitate de procesare tensorală (TPU) folosit pentru instruirea și implementarea modelelor AI din 2015. În mai, Google a lansat cea de-a șasea versiune a cipului său, Trillium, despre care compania a spus că a fost folosit pentru a-și dezvolta modelele, inclusiv Gemini și Imagen.

De asemenea, Google folosește cipuri Nvidia și le livrează prin cloud.

Microsoft nu a mers încă atât de departe. companie spus anul trecut Compania își construiește propriile acceleratoare și procesoare de inteligență artificială, numite Maia și Cobalt.

Yuan Nu este un furnizor de cloud, dar compania are nevoie de multă putere de calcul pentru a rula software-ul și site-ul și pentru a difuza reclame. Deși compania-mamă a Facebook cumpără procesoare Nvidia în valoare de miliarde de dolari, compania a declarat în aprilie că unele dintre cipurile sale interne erau deja implementate în centrele de date și erau „mai eficiente” decât GPU-urile.

Analiștii JPMorgan au estimat în mai că piața pentru construirea de cipuri personalizate pentru furnizorii mari de cloud ar putea avea o valoare de până la 30 de miliarde de dolari, cu o creștere anuală potențială de 20%.

Firma start-up

Cipul WSE-3 de la Cerebras este un exemplu de nouă clasă de cipuri de la un parvenit conceput pentru a rula și antrena inteligența artificială.

brain systems inc.

Capitaliștii de risc văd o oportunitate pentru companiile emergente de a se alătura jocului. Potrivit datelor PitchBook, au investit 6 miliarde de dolari în companii de semiconductori AI în 2023, în uşoară creştere faţă de 5,7 miliarde de dolari în urmă cu un an.

Acesta este un domeniu dificil pentru startup-uri, deoarece semiconductorii sunt scumpi de proiectat, dezvoltat și fabricat. Dar există și oportunități de diferențiere.

Pentru producătorul de cipuri de inteligență artificială din Silicon Valley, Cerebras Systems, accentul se pune pe operațiunile de bază și pe blocajele inteligenței artificiale, mai degrabă decât pe natura mai generală a GPU-urilor. Compania a fost fondată în 2015 și a fost evaluată la 4 miliarde de dolari în cea mai recentă finanțare, potrivit Bloomberg.

Cipul Cerebras WSE-2 combină funcționalitatea GPU împreună cu procesarea centrală și memoria suplimentară într-un singur dispozitiv, care este mai potrivit pentru antrenarea modelelor mari, a spus CEO Andrew Feldman.

„Folosim o singură napolitană gigantică și ei folosesc multe napolitane mici”, a spus Feldman. „Ei au provocarea de a muta datele, iar noi nu”.

Feldman a spus că compania lui, parte a Clinicii Mayo GSKȘi armata americană câștigă afaceri ca client pentru sistemele sale de supercomputer, chiar și concurând cu Nvidia.

„Există multă concurență și cred că este sănătos pentru ecosistem”, a spus Feldman.

Sheth de la D-Matrix a spus că compania sa intenționează să lanseze un card mai târziu în acest an cu un cip mic care va permite mai multe calcule să fie făcute în memorie, mai degrabă decât pe un cip precum un GPU. Produsul D-Matrix se conectează la serverele AI alături de GPU-urile existente, dar descarcă munca de pe cipurile Nvidia și ajută la reducerea costurilor AI generative.

Clienții sunt „foarte receptivi și foarte dispuși să aducă noi soluții pe piață”, a spus Sheth.

Apple și Qualcomm

Pe 22 septembrie 2023, dispozitivele Apple iPhone din seria 15 au fost lansate la magazinul The Grove Apple din Los Angeles, California.

Patrick T. Fallon AFP |

Cea mai mare amenințare la adresa centrelor de date ale Nvidia ar putea fi schimbările în locațiile de procesare.

Dezvoltatorii pariază din ce în ce mai mult că munca inteligenței artificiale se va muta de la fermele de servere la laptopurile, PC-urile și telefoanele pe care le deținem.

Modelele mari dezvoltate de OpenAI necesită grupuri masive de GPU-uri puternice pentru inferență, dar companii precum Apple și Microsoft dezvoltă „modele mai mici” care necesită mai puțină energie și date și pot rula pe dispozitive alimentate cu baterie. Este posibil să nu fie la fel de pricepuți ca cea mai recentă versiune de ChatGPT, dar efectuează și alte aplicații, cum ar fi rezumarea textului sau căutarea vizuală.

Apple și Qualcomm își actualizează cipurile pentru a rula inteligența artificială mai eficient, adăugând piese specializate numite procesoare neuronale pentru modelele AI care pot avea avantaje de confidențialitate și viteză.

Qualcomm a lansat recent un cip pentru PC care permite laptopurilor să ruleze serviciile de inteligență artificială Microsoft pe dispozitiv. De asemenea, compania a investit în câțiva producători de cipuri pentru a produce procesoare cu putere redusă pentru a rula algoritmi de inteligență artificială în afara smartphone-urilor sau laptopurilor.

Apple și-a comercializat ultimele laptopuri și tablete ca fiind optimizate pentru inteligența artificială datorită motorului neuronal de pe cip. La viitoarea sa conferință pentru dezvoltatori, Apple Planifică să prezinte o serie de noi capabilități AIprobabil rulând pe cipurile companiei care alimentează iPhone-urile.

Nu ratați aceste rapoarte exclusive de la CNBC PRO

Performanța Nvidia și Microsoft maschează slăbiciunea stocurilor tehnologice, spune Dan Greenhaus de la Solus

About The Author

Leave a Reply

Your email address will not be published. Required fields are marked *