Jakub Bolzycki |. Fotografii Noor |
Pe măsură ce preocupările industriei cu privire la siguranța și etica inteligenței artificiale cresc, două dintre cele mai valoroase startup-uri de inteligență artificială, OpenAI și Anthropic, au convenit să lase Institutul american de siguranță pentru inteligența artificială să-și testeze noile modele înainte de a le lansa publicului.
Institutul, parte a Departamentului de Comerț al Institutului Național de Standarde și Tehnologie (NIST), a declarat într-un comunicat Comunicat de presă Acesta va oferi „acces la noile modele majore ale fiecărei companii înainte și după lansarea lor publică”.
Organizația lansează răspunsul guvernului american la administrația Biden-Harris primul ordin executiv exista AI În octombrie 2023, solicitați noi evaluări ale siguranței, orientări privind echitatea și drepturile civile și cercetări privind impactul inteligenței artificiale pe piața muncii.
„Suntem încântați că am ajuns la un acord cu Institutul Național pentru Siguranță în Inteligență Artificială pentru a efectua teste pre-lansare ale viitoarelor noastre modele”, a scris CEO-ul OpenAI, Sam Altman, într-o declarație. poştal OpenAI a confirmat, de asemenea, joi pentru CNBC că numărul de utilizatori activi săptămânal al companiei s-a dublat în ultimul an la 200 de milioane. Axios a fost primul care a raportat acest număr.
Vestea vine la doar o zi după ce au apărut rapoarte conform cărora OpenAI era în discuții pentru o rundă de finanțare care să evalueze compania la Peste 100 de miliarde de dolari. Thrive Capital este investitorul principal în această rundă și va investi 1 miliard de dolari, potrivit unei persoane familiarizate cu problema care a cerut să nu fie identificată deoarece detaliile sunt confidențiale.
Anthropic a fost fondat de foști directori și angajați de cercetare OpenAI și a fost evaluat cel mai recent la 18,4 miliarde de dolari. numărătoarea antropică Amazon În calitate de investitor principal, OpenAI este susținut puternic de: Microsoft.
Potrivit rapoartelor de joi, acordul dintre guvern, OpenAI și Anthropic „va facilita cercetarea în colaborare cu privire la modul de evaluare a riscurilor de capacitate și securitate și modalități de atenuare a acestor riscuri”. eliberare.
„Susținem cu tărie misiunea Institutului Național pentru Securitatea Inteligenței Artificiale și așteptăm cu nerăbdare să lucrăm împreună pentru a oferi cele mai bune practici și standarde de securitate pentru modelele de inteligență artificială”, a declarat Jason Kwon, director de strategie la OpenAI, într-o declarație pentru CNBC.
Cofondatorul antropic, Jack Clark, a declarat că „parteneriatul companiei cu Institutul de Securitate AI folosește expertiza lor extinsă pentru a testa riguros modelele noastre înainte de implementarea pe scară largă” și „îmbunătățește capacitatea noastră de a identifica și atenua riscurile, promovează dezvoltarea responsabilă a inteligenței artificiale.
Mai mulți dezvoltatori și cercetători AI și-a exprimat îngrijorarea Despre siguranță și etică în industria de inteligență artificială din ce în ce mai profitabilă. Actuali și foști angajați OpenAI Publicați o scrisoare deschisă 4 iunie, descriind potențialele probleme cu dezvoltarea rapidă a inteligenței artificiale și lipsa de supraveghere și protecția avertizorilor.
„Companiile AI au stimulente financiare puternice pentru a evita o supraveghere eficientă și credem că structurile de guvernanță corporativă personalizate sunt insuficiente pentru a schimba acest lucru”, au adăugat că companiile AI „au în prezent doar obligații slabe de a le împărtăși guvernelor”. cu societatea civilă” și nu se poate „să se bazeze pe ei pentru a împărtăși aceste informații în mod voluntar”.
La câteva zile după publicarea scrisorii, o sursă familiarizată cu situația a confirmat pentru CNBC că FTC și Departamentul de Justiție investighează problema. Se va demara o anchetă antitrust Introduceți OpenAI, Microsoft și NVIDIA. Președintele FTC, Lina Khan descriptiv Acțiunea agenției ei este de a „realiza un studiu de piață al investițiilor și parteneriatelor care se formează între dezvoltatorii de inteligență artificială și furnizorii importanți de servicii cloud”.
Miercuri, parlamentarii din California A trecut O factură fierbinte de securitate AI se îndreaptă către biroul guvernatorului Gavin Newsom. Newsom, un democrat, are până pe 30 septembrie să decidă dacă va respinge legislația sau o semnează în lege. Proiectul de lege a fost primit cu scepticism de unii.