
Pe 26 aprilie 2023, în orașul Suqian, provincia Jiangsu, China, un utilizator de internet a vizualizat ChatGPT pe telefonul său mobil.
Publicarea viitorului |. Getty Images
LONDRA – Marea Britanie este pe cale să introducă primele legi ale inteligenței artificiale – dar noul guvern laburist al prim-ministrului Keir Starmer se confruntă cu un echilibru delicat între stabilirea unor reguli suficient de stricte, care permit în același timp inovarea.
într-o vorbire Regele Carol al III-lea a prezentat raportul în numele guvernului Starmer, care a declarat miercuri că va „căuta să elaboreze o legislație adecvată pentru a impune cerințe celor care lucrează pentru a dezvolta cele mai puternice modele de inteligență artificială”.
Dar discursul nu a făcut nicio mențiune despre o lege reală a inteligenței artificiale, pe care mulți directori și comentatori din domeniul tehnologiei o așteptau.
În Uniunea Europeană, autoritățile au introdus o lege cuprinzătoare numită metoda inteligenței artificiale Acest lucru impune restricții mai stricte companiilor care dezvoltă și folosesc inteligența artificială.
Multe companii de tehnologie – mari și mici – speră ca Marea Britanie să nu adopte aceeași abordare în ceea ce privește impunerea regulilor pe care le spun că sunt prea dure.
Cum ar putea arăta un proiect de lege privind inteligența artificială din Regatul Unit
Muncii este încă de așteptat să introducă reguli formale pentru inteligența artificială, așa cum a stabilit partidul în manifestul său electoral.
Guvernul lui Starmer a promis „o reglementare obligatorie pentru un număr mic de companii care dezvoltă cele mai puternice modele de inteligență artificială” și o legislație care să interzică deepfake-urile explicite.
Prin țintirea celor mai puternice modele de inteligență artificială, Labor va viza OpenAI, Microsoft, Google, Amazonprecum și startup-uri de inteligență artificială, inclusiv Anthropic, Cohere și Mistral.
Matt Calkins, CEO al companiei de software Appian, a declarat pentru CNBC: „Cele mai mari companii de inteligență artificială s-ar putea confrunta cu mai mult control decât înainte”.
„Ceea ce avem nevoie este un mediu propice unei inovații la scară largă, guvernat de un cadru de reglementare clar care oferă oportunități echitabile și transparență pentru toată lumea.”
Lewis Liu, șeful de inteligență artificială la compania de software de gestionare a contractelor Sirion, a avertizat că guvernele ar trebui să evite o „abordare cu ciocan amplă a reglementării fiecărui caz de utilizare”.
Cazurile de utilizare care implică date medicale sensibile, cum ar fi diagnosticarea clinică, nu ar trebui puse în aceeași găleată cu lucruri precum software-ul pentru întreprinderi, a spus el.
„Marea Britanie are o oportunitate de a profita de această nuanță și de a aduce beneficii uriașe industriei sale tehnologice”, a spus Liu pentru CNBC.

Legislația privind inteligența artificială va fi în contrast puternic cu predecesorul lui Starmer. Sub fostul cancelar Rishi Sunak, guvernul a ales să adopte o abordare mai blândă a inteligenței artificiale, căutând în schimb să aplice regulile existente tehnologice.
Guvernul conservator anterior a declarat într-un document de politică din februarie că introducerea măsurilor obligatorii prea devreme ar putea „aborda în mod ineficient riscurile, deveni rapid depășită sau înăbușe inovația”.
În luna februarie a acestui an, ministrul britanic al Noilor Tehnologii, Peter Kyle, a declarat că Muncii va forța legal companiile să împărtășească cu guvernul datele de testare privind siguranța modelelor de inteligență artificială.
Ministrul umbră al științei și tehnologiei de la acea vreme, Keir, a spus într-un interviu acordat pentru BBC la acea vreme: „Vom forța din punct de vedere legal publicarea acestor rezultate ale datelor de testare către guvern”.
Guvernul lui Sunak a încheiat acorduri cu companii de tehnologie pentru a partaja informații de testare de securitate cu Artificial Intelligence Security Institute, o agenție susținută de stat care testează sisteme avansate de inteligență artificială. Dar acest lucru se face doar pe bază de voluntariat.
Riscul de a inhiba inovarea
Guvernul Regatului Unit dorește să evite să pună prea multă presiune asupra regulilor AI care ar putea împiedica în cele din urmă inovarea. Partidul Laburist a mai declarat în manifestul său că speră să „susțină modele de afaceri diversificate și să aducă pe piață inovație și produse noi”.
Directorul executiv al Salesforce Marea Britanie și Irlanda, Zahra Bahrololoumi, a declarat pentru CNBC că orice reglementare ar trebui să fie „nuanțată” și să atribuie responsabilități „în consecință”, adăugând că a salutat apelul guvernului pentru o „legislație adecvată”.
Matthew Houlihan, director senior al afacerilor guvernamentale la Cisco, a spus că orice reguli de inteligență artificială trebuie să fie „centrate pe o abordare atentă, bazată pe risc”.
Alte propuneri deja prezentate de politicienii britanici oferă o perspectivă asupra a ceea ce ar putea fi inclus în proiectul de lege privind inteligența artificială a laburistului.
Chris Holmes, un parlamentar conservator din Camera Lorzilor, a prezentat anul trecut un proiect de lege care propune reglementarea inteligenței artificiale. Proiectul de lege a trecut a treia lectură în mai și a fost depus la camera inferioară a parlamentului.
Legea lui Holmes are șanse mai mici de succes decât legile propuse de guvern. Cu toate acestea, oferă câteva idei despre modul în care Muncii și-ar putea elabora propria legislație privind inteligența artificială.
Proiectul de lege introdus de Holmes include propuneri de creare a unei agenții centralizate de inteligență artificială care să supravegheze aplicarea regulilor tehnologiei.

Companiile trebuie să furnizeze Autorității AI materiale de la terți și proprietate intelectuală utilizate pentru formarea modelelor și să se asigure că orice utilizare a acestor materiale și proprietate intelectuală are acordul sursei originale.
Acest lucru este oarecum ecou al Oficiului UE pentru Inteligență Artificială, care supraveghează dezvoltarea modelelor de ordin superior de inteligență artificială.
O altă sugestie din partea Holmes este ca companiile să numească ofițeri AI personali care ar fi însărcinați să se asigure că compania utilizează AI în siguranță, etic și echitabil și că datele utilizate în orice tehnologie AI sunt imparțiale.
Cum se compară cu alte autorități de reglementare
Matthew Holman, partener la firma de avocatură Cripps, a declarat pentru CNBC că, pe baza angajamentelor Muncii de până acum, orice astfel de lege ar fi inevitabil „mult îndepărtată de domeniul de aplicare amplu al Legii UE privind inteligența artificială”.
Holman a adăugat că Regatul Unit are mai multe șanse să găsească o „cală de mijloc” decât să solicite dezvăluiri arbitrare din partea producătorilor de modele AI. De exemplu, guvernul ar putea cere companiilor AI să-și împărtășească munca în curs la o întâlnire cu ușile închise la Institutul de Securitate AI, dar să nu dezvăluie secretele comerciale sau codul sursă.
Ministrul științei, Keir, a declarat anterior, la Săptămâna tehnologiei de la Londra, că Munca nu va adopta legi stricte precum Legea privind inteligența artificială, deoarece nu a vrut să împiedice inovarea sau să împiedice investițiile marii dezvoltatori de inteligență artificială.
Chiar și așa, legile britanice privind IA vor fi în continuare cu un pas înaintea SUA, care în prezent nu au niciun fel de legislație federală privind IA. În același timp, reglementările Chinei sunt mai stricte decât orice legislație pe care UE și Marea Britanie ar putea propune.
Anul trecut, autoritățile de reglementare chineze au finalizat regulile care guvernează generarea de inteligență artificială, cu scopul de a elimina conținutul ilegal și de a consolida protecția de securitate.
Liu de la Sirion a spus că un lucru pe care speră că guvernul nu îl va face este să restricționeze modelele AI open-source. „Este vital ca noile reglementări ale Marii Britanii privind inteligența artificială să nu înăbușe sursa deschisă sau să nu cadă în capcane de reglementare”, a spus el pentru CNBC.
„Există o diferență uriașă între prejudiciul cauzat de un mare LLM precum OpenAI și răul cauzat de un anumit model cu sursă deschisă personalizat, utilizat de un startup pentru a rezolva o anumită problemă.”
Herman Narula, CEO al companiei de capital de risc Metaverse Improbable, a fost de acord că limitarea inovației open source AI ar fi o idee proastă. „Este nevoie de o nouă acțiune guvernamentală, dar această acțiune trebuie să se concentreze pe crearea unei lumi viabile pentru companiile open source AI, ceea ce este necesar pentru a preveni monopolurile”, a declarat Narula pentru CNBC.