Modelul de AI Google, în Ancheta Europeană

Image from Trustedreviews

Modelul de AI Google, în Ancheta Europeană

Timp de citire: 2 min

Comisia de Protecție a Datelor (DPC) a anunțat astăzi o investigație asupra Google pentru a determina dacă compania a respectat legile UE privind protecția datelor în timp ce și-a dezvoltat modelul AI, Pathways Language Model 2 (PaLM 2).

PaLM2 este un model de limbaj mare utilizat în diverse servicii AI, inclusiv în rezumarea e-mailurilor. Google a declarat că va coopera cu ancheta, după cum a notat AP.

Ancheta va evalua dacă Google ar fi trebuit să efectueze o Evaluare a Impactului Protecției Datelor (DPIA) pentru a evalua riscurile potențiale pentru drepturile și libertățile individuale provenite de la tehnologiile sale AI.

Această investigație face parte din eforturile mai largi ale DPC de a asigura conformitatea cu regulile de protecție a datelor în sectorul AI în întreaga Europă. Procesarea transfrontalieră, care implică manipularea datelor în mai multe țări UE sau afectarea indivizilor din mai multe națiuni, este supusă unui control special.

Instrumentele AI generative, cunoscute pentru producerea de informații convingătoare, dar false și pentru accesarea datelor personale, prezintă riscuri legale semnificative, așa cum a notat TechCrunch. DPC, responsabilă cu asigurarea conformității Google cu Regulamentul General privind Protecția Datelor (GDPR).

În acest scop, DPC poate impune amenzi de până la 4% din venitul anual global al companiei mamă a Google, Alphabet, pentru încălcări, așa cum a raportat TechCrunch.

Google a dezvoltat o serie de instrumente AI generative, inclusiv seria sa Gemini de modele mari de limbaj (anterior Bard) utilizate pentru diverse aplicații, inclusiv îmbunătățirea căutării pe web prin intermediul chatbot-ilor AI, notează TechCrunch.

Central în cadrul acestor instrumente este PaLM2 de la Google, un model fundamental de limbaj lansat la conferința pentru dezvoltatori I/O de anul trecut, a spus TechCrunch.

Luna trecută, X, compania lui Elon Musk, a surprins atenția a regulatorilor europeni datorită utilizării datelor utilizatorilor pentru instruirea AI. DPC a declanșat o investigație după ce a primit plângeri că X alimenta cu datele utilizatorilor tehnologia sa Grok AI fără a obține consimțământul corespunzător. Deși X a convenit să limiteze prelucrarea datelor sale, nu a fost supusă niciunei sancțiuni.

Această investigație face parte din eforturile mai largi ale DPC de a reglementa utilizarea datelor personale în dezvoltarea AI în întreaga Uniune Europeană. Adoptarea recentă a Actului de Inteligență Artificială al UE reprezintă un pas semnificativ către stabilirea unui cadru de reglementare pentru tehnologiile AI în cadrul blocului.

V-a plăcut acest articol?
Acordați-i o notă!
Nu mi-a plăcut deloc Nu prea mi-a plăcut A fost ok Destul de bun! Mi-a plăcut mult!

Ne bucurăm că ți-a plăcut munca noastră!

Pentru că prețuim părerea ta, ne-ai putea lăsa o recenzie pe Trustpilot? Durează doar un moment și face o mare diferență pentru noi. Îți mulțumim pentru sprijin!

Oferă-ne o notă pe Trustpilot
0 Votat de 0 utilizatori
Titlu
Comentariu
Vă mulțumim pentru feedback
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Lasă un comentariu

Loader
Loader Mai mult...