August 1, 2024

Legea emblematică a inteligenței artificiale a Uniunii Europene intră oficial în vigoare joi – și presupune schimbări dificile pentru giganții tehnologici din SUA.

Artificial Intelligence Act este o regulă de referință care guvernează modul în care companiile dezvoltă, utilizează și aplică inteligența artificială Primiți aprobarea finală din partea statelor membre UE, a legiuitorilor și a Comisiei Europene – executiv UE – mai.

CNBC dezvăluie tot ce trebuie să știți despre Legea AI și despre cum va avea impact asupra celor mai mari companii de tehnologie din lume.

Ce este Legea Inteligenței Artificiale?

Artificial Intelligence Act este o parte a legislației UE care reglementează inteligența artificială. Legea a fost propusă pentru prima dată de Comisia Europeană în 2020 și își propune să abordeze impactul negativ al inteligenței artificiale.

Regulamentul stabilește un cadru de reglementare cuprinzător și unificat pentru inteligența artificială în întreaga UE.

Acesta va viza în primul rând marile companii de tehnologie din SUA, care sunt în prezent principalii arhitecți și dezvoltatori ai celor mai avansate sisteme de inteligență artificială.

Cu toate acestea, multe alte afaceri vor fi, de asemenea, supuse acestor reguli, inclusiv chiar și companii non-tech.

Tanguy Van Overstraeten, șeful departamentului de tehnologie, media și tehnologie la firma de avocatură Linklaters din Bruxelles, a declarat că proiectul de lege al UE privind inteligența artificială este „primul de acest fel din lume”.

„Este probabil să afecteze multe companii, în special cele care dezvoltă sisteme AI și cele care le implementează sau le folosesc doar în anumite circumstanțe”.

Legislația adoptă o abordare bazată pe risc pentru reglementarea inteligenței artificiale, ceea ce înseamnă că diferitele aplicații ale tehnologiei sunt reglementate diferit în funcție de nivelul de risc pe care îl prezintă pentru societate.

De exemplu, Legea privind inteligența artificială va introduce obligații stricte pentru aplicațiile AI considerate „cu risc ridicat”. Aceste obligații includ sisteme adecvate de evaluare și atenuare a riscurilor, un set de materiale de instruire de înaltă calitate pentru a minimiza riscul de părtinire, înregistrări ale activităților zilnice și documentație detaliată a modelelor obligatorii de partajare cu autoritățile pentru a evalua conformitatea.

CEO-ul Appian spune că revoluția AI este „împiedicată de frică”

Exemple de sisteme AI cu risc ridicat includ mașini cu conducere autonomă, dispozitive medicale, sisteme de decizie de împrumut, punctaj educațional și sisteme biometrice la distanță.

Legea interzice, de asemenea, orice aplicații de inteligență artificială considerate a avea un nivel de risc „inacceptabil”.

Aplicațiile de inteligență artificială care prezintă riscuri inacceptabile includ sistemele de „scorare socială” care clasifică cetățenii pe baza agregarii și analizei datelor, controlul predictiv și utilizarea tehnologiei de recunoaștere a emoțiilor la locul de muncă sau la școală.

Ce înseamnă acest lucru pentru companiile de tehnologie din SUA?

Producătorilor americani le place Microsoft, Google, Amazon, mărși Yuan Pe fondul nebuniei globale pentru tehnologia inteligenței artificiale, aceștia au colaborat activ și au investit miliarde de dolari în companii despre care cred că pot conduce acest domeniu.

Având în vedere infrastructura uriașă de calcul necesară pentru antrenarea și rularea modelelor de inteligență artificială, platformele cloud precum Microsoft Azure, Amazon Web Services și Google Cloud sunt, de asemenea, cheie pentru sprijinirea dezvoltării inteligenței artificiale.

În acest sens, marile companii tehnologice vor fi, fără îndoială, printre țintele cele mai afectate de noile reguli.

„Impactul Legii AI ajunge mult dincolo de UE. Se aplică oricărei organizații cu orice activitate sau influență în UE, ceea ce înseamnă că indiferent unde vă aflați, Legea AI se poate aplica și în cazul dvs., Charlie Thompson. Analist senior și vicepreședinte pentru Europa, Orientul Mijlociu, Africa și America Latină la compania de software pentru întreprinderi Appian, a declarat pentru CNBC prin e-mail.

Thompson a adăugat: „Acest lucru va aduce mai multă atenție operațiunilor giganților din tehnologie pe piața UE și utilizarea lor a datelor cetățenilor UE”.

Meta a limitat disponibilitatea modelelor sale de inteligență artificială în Europa din cauza preocupărilor de reglementare – deși mutarea nu se datorează neapărat Legii UE privind inteligența artificială.

Proprietarul Facebook a declarat la începutul acestei luni că nu va face modelul său LLaMa disponibil în UE, invocând incertitudinea cu privire la respectarea Regulamentului general privind protecția datelor (GDPR) al blocului.

CEO Capgemini: Niciun „glonț magic” care să beneficieze de inteligența artificială

Companiei i s-a ordonat anterior să nu mai folosească postările de pe Facebook și Instagram pentru a-și antrena modelele în UE din cauza preocupărilor legate de potențialele încălcări ale GDPR.

Cum să tratăm inteligența artificială generativă?

Inteligența artificială generativă este etichetată drept exemplu de inteligență artificială „de uz general” în Legea privind inteligența artificială a UE.

Această etichetă se referă la instrumente care sunt capabile să îndeplinească o gamă largă de sarcini la un nivel similar cu cel al oamenilor, dacă nu mai bine.

Modelele generale de inteligență artificială includ, dar nu se limitează la, GPT de la OpenAI, Gemini de la Google și Claude de la Anthropic.

Pentru aceste sisteme, Legea privind inteligența artificială impune cerințe stricte, cum ar fi respectarea legislației UE privind drepturile de autor, transparența în ceea ce privește formarea modelelor, testarea de rutină și protecția adecvată a securității cibernetice.

Cu toate acestea, nu toate modelele AI sunt tratate în mod egal. Dezvoltatorii AI spun că UE trebuie să se asigure că modelele open source – care sunt gratuite pentru public și pot fi folosite pentru a construi aplicații AI personalizate – nu sunt supuse unor reglementări prea stricte.

Exemple de modele open source includ LLaMa de la Meta, Stable Diffusion de la Stability AI și 7B de la Mistral.

UE oferă unele excepții pentru modelele AI generative open source.

Dar pentru a se califica pentru scutire, furnizorii de surse deschise trebuie să-și dezvăluie parametrii, inclusiv ponderile, arhitectura modelului și utilizarea modelului și să permită „accesul, utilizarea, modificarea și distribuția modelului”.

În conformitate cu Legea Inteligenței Artificiale, modelele open source care prezintă riscuri „sistemice” nu sunt scutite.

Diferența dintre companiile AI cu sursă închisă și cu sursă deschisă este mai mică decât am crezut: Hugging Face

„Este necesar să se evalueze cu atenție când sunt declanșate regulile și rolul părților interesate relevante”, a spus Van Overstraten.

Ce se întâmplă dacă o companie încalcă regulile?

Companii care încalcă Legea privind inteligența artificială a UE Poate fi amendat Între 35 milioane EUR (41 milioane USD) sau 7% din veniturile anuale globale, oricare dintre acestea este mai mare, și 7,5 milioane EUR (sau 1,5% din veniturile anuale globale).

Valoarea sancțiunii va depinde de încălcarea și de mărimea companiei care este amendată.

Este mai mare decât amenzile stipulate în legea strictă a confidențialității digitale a Europei, GDPR. Companiile care încalcă GDPR riscă amenzi de până la 20 de milioane de euro sau 4% din cifra de afaceri globală anuală.

Autoritatea de supraveghere pentru toate modelele de inteligență artificială din domeniul de aplicare al proiectului de lege, inclusiv sistemele generale de inteligență artificială, va fi responsabilitatea Oficiului European de Inteligență Artificială, un organism de reglementare înființat de Comisia Europeană în februarie 2024.

Jamil Jiva, șeful global de gestionare a activelor la compania fintech Linedata, a declarat pentru CNBC că UE „înțelege că, dacă doriți ca reglementările să aibă un impact, trebuie să impuneți amenzi uriașe companiilor care nu sunt conforme”.

Martin Sorrell vorbește despre viitorul publicității în era inteligenței artificiale

Jiva a adăugat că, într-un mod similar cu modul în care GDPR a demonstrat că UE ar putea „exercită influență de reglementare pentru a impune cele mai bune practici de confidențialitate a datelor” la nivel global, cu AI ​​Bill, UE încearcă din nou să reproducă acest lucru, dar pentru inteligența artificială .

Cu toate acestea, merită remarcat faptul că, deși Actul Inteligenței Artificiale intră în sfârșit în vigoare, majoritatea prevederilor actului nu vor intra efectiv în vigoare cel puțin în 2026.

Restricțiile privind sistemele de uz general nu vor începe decât după 12 luni de la intrarea în vigoare a Legii privind inteligența artificială.

Sistemele de inteligență artificială generativă disponibile în prezent (cum ar fi ChatGPT de la OpenAI și Gemini de la Google) au primit, de asemenea, o „perioadă de tranziție” de 36 de luni pentru a-și aduce sistemele în conformitate.

About The Author

Leave a Reply

Your email address will not be published. Required fields are marked *