
OpenAI l-a concediat săptămâna trecută pe Aleksander Madry, unul dintre directorii seniori de securitate ai OpenAI, din funcția sa și l-a redistribuit să lucreze concentrat pe inferența inteligenței artificiale, au confirmat pentru CNBC oameni familiarizați cu problema.
Madry este șeful eforturilor de pregătire ale OpenAI, o echipă „responsabilă pentru urmărirea, evaluarea, prezicerea și prevenirea riscurilor catastrofale asociate cu modelele de inteligență artificială de ultimă oră”. biologie Madry pe site-ul web al Inițiativei de inteligență artificială a Universității Princeton.
OpenAI a declarat pentru CNBC că Madry va fi în continuare angajat în munca de bază de securitate a inteligenței artificiale în noul său rol.
El este, de asemenea, director al Centrului MIT pentru învățare automată implementabilă și co-conducător al facultății al MIT Artificial Intelligence Policy Forum, iar în prezent este în concediu, potrivit universității. site-ul web.
Cu mai puțin de o săptămână înainte de decizia de a-l reatribui pe Madry, un grup de senatori democrați a trimis o scrisoare directorului general al OpenAI, Sam Altman, întrebând „cum abordează OpenAI problemele de securitate emergente”.
acest scrisoareArticolul, trimis luni și vizionat de CNBC, mai spunea: „Am căutat mai multe informații de la OpenAI despre pașii pe care îi ia compania pentru a-și îndeplini angajamentele în materie de securitate publică, modul în care compania își evaluează intern progresul față de acele angajamente și care sunt rezultatele companiei. progresul față de aceste angajamente este. Compania identifică și atenuează amenințările la adresa securității cibernetice.
OpenAI nu a răspuns imediat unei solicitări de comentarii.
Legislatorii au dat startup-ului tehnologic până pe 13 august pentru a oferi o serie de răspunsuri la întrebări specifice despre practicile sale de securitate și angajamentele financiare.
Face parte dintr-o vară de preocupări de securitate tot mai mari și controverse în jurul OpenAI. Google, Microsoft, Yuan și alte companii la cârmă inteligența artificială generativă Cursa înarmărilor – Se așteaptă ca piața să o facă Până la 1 trilion de dolari Venituri în 10 ani – Se pare că companiile din fiecare industrie se grăbesc să adauge chatbot și agenți bazați pe inteligență artificială pentru a evita lăsat în urmă de către concurenți.
La începutul acestei luni, Microsoft a renuntat la ea Loc de observator în Consiliul de administrație al OpenAIa spus într-o scrisoare văzută de CNBC că acum poate demisiona pentru că este mulțumit de structura consiliului de administrație al startup-ului, întrucât un concediere scurtă Altman și a amenințat investiția uriașă a Microsoft în companie.
Dar luna trecutăun grup de actuali și foști angajați OpenAI au publicat un articol plicul deschis Descrieți preocupările legate de problemă AI Industria a crescut rapid, în ciuda lipsei de supraveghere și de protecție a avertizorilor care doresc să se pronunțe.
„Companiile AI au stimulente financiare puternice pentru a evita o supraveghere eficientă și credem că structurile personalizate de guvernanță corporativă sunt insuficiente pentru a schimba acest lucru”, au scris angajații la acea vreme.
La câteva zile după publicarea scrisorii, o sursă familiarizată cu problema a confirmat pentru CNBC că FTC și DOJ Se va demara o anchetă antitrust Introduceți OpenAI, Microsoft și Nvidiaconcentrându-se pe comportamentul companiei.
Președintele FTC, Lina Khan descrie Acțiunea agenției ei este de a „realiza un studiu de piață al investițiilor și parteneriatelor care se formează între dezvoltatorii de inteligență artificială și furnizorii importanți de servicii cloud”.
Actualii și foștii angajați au scris în scrisoarea din iunie că companiile de inteligență artificială au „o mulțime de informații non-publice” despre ceea ce poate face tehnologia lor, amploarea măsurilor de securitate pe care le iau și prejudiciul pe care tehnologia îl prezintă diferitelor tipuri de niveluri de risc.
„Înțelegem, de asemenea, riscurile grave pe care le prezintă aceste tehnologii”, au scris ei, adăugând că companiile „au în prezent doar o obligație slabă de a împărtăși o parte din aceste informații cu guvernele și niciuna cu societatea civilă. Nu credem că toate pot fi de încredere” împărtășită în mod voluntar. “
În mai, OpenAI a decis O persoană familiară cu problema a confirmat la acea vreme pentru CNBC că la un an după anunț, compania a desființat echipa concentrată pe riscurile pe termen lung ale inteligenței artificiale.
Persoana, care a vorbit sub condiția anonimatului, a spus că unii membri ai echipei sunt realocați altor echipe din cadrul companiei.
Echipa s-a desființat după ce liderii săi, co-fondatorii OpenAI, Ilya Sutskever și Jan Leike, s-au desființat. anunta plecarea De la lansare în mai. Leike a scris într-o postare pe X că „cultura și procesele de siguranță ale OpenAI au făcut loc produselor strălucitoare”.
spune Ultraman Pe X la acea vreme, era trist să-l vadă pe Lake plecând și că OpenAI avea mai mult de lucru. La scurt timp după, co-fondatorul Greg Brockman eliberare O declarație a CEO-ului Brockman și X a spus că compania „crește gradul de conștientizare a riscurilor și oportunităților AGI, astfel încât lumea să poată fi mai bine pregătită pentru ele”.
„M-am alăturat pentru că am crezut că OpenAI ar fi cel mai bun loc din lume pentru a face această cercetare”, Leike scrie pe X apoi. „Cu toate acestea, de ceva timp am fost în dezacord cu conducerea OpenAI în ceea ce privește prioritățile de bază ale companiei, până când am ajuns în sfârșit la un punct de rupere.”
Lake a scris că consideră că lățimea de bandă a companiei ar trebui să se concentreze mai mult pe securitate, supraveghere, pregătire, siguranță și impact social.
“Aceste probleme sunt greu de rezolvat și îmi fac griji că nu vom putea atinge acest obiectiv”, a scris el “Echipa mea a navigat împotriva vântului în ultimele luni. Uneori ne-am luptat cu resursele de calcul. ]devine din ce în ce mai dificil să finalizați această cercetare importantă.”
Leike a adăugat că OpenAI trebuie să devină „o companie AGI pe primul loc în siguranță”.
„Construirea de mașini care sunt mai inteligente decât oamenii este în mod inerent o muncă periculoasă”, scria el la acea vreme. „OpenAI are o responsabilitate uriașă în numele întregii umanități. Dar în ultimii câțiva ani, cultura și procesele de siguranță au trecut pe planul din spate față de produsele strălucitoare.”
Informații în primul rând raport În ceea ce privește transferul lui Madeley.