Opinie: Epidemia de Halucinații AI, o Criză pentru care nu Suntem Pregătiți

Image generated with DALL·E through ChatGPT

Opinie: Epidemia de Halucinații AI, o Criză pentru care nu Suntem Pregătiți

Timp de citire: 8 min

În ciuda promisiunilor constante de a reduce halucinațiile AI, principalele instrumente AI – de la ChatGPT la Perplexity la Gemini și Apple Intelligence – continuă să genereze informații false, adesea cu consecințe alarmante. Experții, inclusiv cei care avertizează despre riscurile AI, au căzut în capcana conținutului fabricat, iar chiar și instrumente avansate precum Deep Research fabrică rapoarte. Adevărul pare să rămână în mâinile oamenilor

Chatbot-urile s-au îmbunătățit de-a lungul anilor – mult mai bine. Cu toate acestea, există o problemă care nu a fost chiar rezolvată și este cunoscută sub numele de „halucinații”.

Iubiții noștri chatboti împărtășesc răspunsuri strălucite la întrebările noastre cu determinare și autoritatea unui Yoda de science fiction, chiar și atunci când sunt teribil de greșiți. Și noi îi credem. Uneori, orb.

Numeroși oameni de știință, experți și chiar dezvoltatori de chatboti avertizează de ani de zile despre halucinații. Cu toate acestea, în timp ce adoptarea s-a răspândit rapid – OpenAI a raportat 400 de milioane de utilizatori activi săptămânali acum doar câteva zile – educația privind inteligența artificială nu a ținut pasul.

Studiile recente, cazurile de judecată și evenimentele dramatice continuă să arate că dezinformarea este și mai periculoasă decât ne-am dat seama.

E mai rău decât credem

La început, depistarea erorilor majore generate de AI a fost destul de amuzantă – cum ar fi acele priviri generale jenante ale AI generate de Gemini sugerând utilizatorilor să adauge „lipici non-toxic la sos” pentru o rețetă de pizza sau recomandând consumul a „o piatră mică pe zi” anul trecut. Dar, pe măsură ce începem să avem din nou încredere în AI, situația s-a escaladat, devenind din ce în ce mai îngrijorătoare.

În decembrie, am văzut cum instrumentul de AI al Apple a creat titluri de știri „rezumând” știri și generând informații false și înșelătoare, cum ar fi pretinderea falsă că BBC a anunțat că Luigi Mangione s-a împușcat. După acest incident, publicația a depus o plângere împotriva Apple și a început să cerceteze acuratețea AI generative în timp ce analiza conținutul știrilor.

Concluziile BBC, publicate doar cu câteva zile în urmă, au dezvăluit statistici alarmante: 51% dintre răspunsurile oferite de popularii Chatboti AI conțineau probleme semnificative, 13% din citatele furnizate de modele erau complet fabricate, iar 19% din date erau incorecte.

Adolescenții se numără printre cele mai afectate categorii de populație, deoarece au adesea dificultăți în a distinge știrile false de cele reale și pot fi ușor influențați de conținutul generat de AI. Un studiu publicat în ianuarie a arătat că 35% dintre adolescenți au fost înșelați de conținutul fals generat de modelele AI, iar 22% au distribuit informațiile false.

Dar nu sunt doar adolescenții și persoanele distrase care cad în aceste capcane. Și nu sunt doar Gemini sau Apple Intelligence cele care greșesc.

Niciun Model AI nu este ferit, nicio Industrie nu este în Siguranță

Această cercetare realizată de BBC confirmă o altă problemă: toate modelele de IA au halucinații. Experții au analizat cele mai populare modele, cum ar fi ChatGPT, Gemini, Perplexity și Copilot. Niciun model de IA nu este scutit de erori. Anthropic are o pagină care abordează această problemă, sugerând idei despre cum să reducem halucinațiile.

„Chiar și cele mai avansate modele de limbaj, precum Claude, pot uneori genera text care este factual incorect sau incoerent cu contextul dat”, afirmă documentul. Alte companii de IA au împărtășit pagini similare cu sfaturi și trucuri pentru a evita conținutul fals, dar nu este atât de ușor și a fost o problemă nerezolvată de mult timp.

În 2023, OpenAI a anunțat că lucrează la noi și inovative metode de a elimina halucinațiile. Alertă de spoiler: este încă o problemă majoră astăzi.

În ianuarie 2024 – cu peste un an în urmă – CEO-ul Aravind Srinivas a declarat că halucinațiile Perplexity apăreau în principal în conturile neplătite. „Majoritatea reclamațiilor provin din versiunea gratuită a produsului,” a explicat Srinivas, adăugând că deja aduceau mai multe GPU-uri pentru a rezolva problema. Cu toate acestea, până în octombrie, New York Post și Dow Jones au depus o acțiune în justiție împotriva Perplexity – deoarece modelul lor continua să atribuie știri false publicațiilor lor – iar instrumentul AI dezvoltat de startup pentru alegerile din SUA a fost testat de experți care au dezvăluit inconsistențe, rezumate inexacte și halucinații.

Boala Halucinației Atinge Niveluri Științifice Și Academice

Una dintre cele mai mari preocupări în acest moment este că chiar și experții – inclusiv aceia care avertizează asupra riscurilor și pericolelor IA – au căzut în capcana acestor instrumente predispuse la halucinații.

În decembrie, profesorul de la Stanford și expert în tehnologie și dezinformare Jeff Hancock a fost acuzat că a folosit IA pentru a crea o declarație în instanță. Hancock a depus o declarație de 12 pagini în apărarea legii din 2023 a statului care incriminează utilizarea deepfakes, inclusiv 15 citate. Cu toate acestea, două dintre aceste citate nu au putut fi găsite nicăieri – deoarece ChatGPT, instrumentul IA preferat de expertul în dezinformare, pur și simplu le-a inventat.

Hancock – programat să predea în acest an „Adevăr, Încredere și Tehnologie” – a explicat că a folosit chatbot-ul OpenAI pentru a-și organiza citările, ceea ce a dus la halucinații. Cercetătorul și-a cerut scuze – și a susținut punctele esențiale ale declarației sale – și ne-a învățat tuturor lecția valoroasă că chiar și experții și cei mai cunoscători în privința riscurilor AI sunt susceptibili la acestea.

Profesorul Hancock nu a fost singurul care a prezentat în instanță documente care conțin invenții generate de AI, desigur. Un alt caz, implicând un proces împotriva Walmart, a devenit recent viral pentru că avocații au folosit cazuri false generate de AI pentru a-și construi argumentația. De fapt, problema a devenit atât de frecventă în instanțele din SUA încât firma de avocatură Morgan & Morgan a trimis recent emailuri celor peste 1.000 de avocați ai săi, avertizându-i despre riscurile folosirii citărilor generate de AI, iar American Bar Association le-a reamintit celor 400.000 de membri ai săi regulile de etică ale avocaților – inclusiv informațiile generate de AI.

Cercetare Aprofundată de Asemenea

Unul dintre cele mai populare instrumente AI în acest moment este „Deep Research”, conceput pentru experți și oameni de știință care caută rezultate mai complexe în cercetarea lor. Halucinațiile nu lipsesc nici de la acest instrument, deși versiunea OpenAI a necesitat inițial un abonament Pro de 200 de dolari pentru acces.

Utilizatorii de pe Reddit au ridicat preocupări privind această problemă, raportând că toate modelele populare care includ instrumente de cercetare profundă – Perplexity, ChatGPT și DeepSeek – au halucinat. Cercetătorii și experții AI au împărtășit, de asemenea, rezultate îngrijorătoare pe alte platforme de rețele sociale precum X.

„Instrumentul a produs un raport frumos scris și argumentat,” a scris un utilizator care a folosit instrumentul Deep Research al OpenAI pentru a studia matematica realizată de tineri. „Singura problemă este că totul este inventat.”

„Deep Research a inventat o mulțime de statistici și analize, pretinzând că compilează un set de date de mii de articole și presupunând că adună informații despre anul nașterii fiecărui autor din surse de încredere,” a împărtășit un altul. „Nimic din toate acestea nu este adevărat.”

Adevărul Rămâne În Mâinile Omului

Vor înceta vreodată chatbot-urile să halucineze? Punctul slab al AI a fost evident de ani de zile – l-am văzut în podcast-uri precum Planet Money când au testat episoade generate de AI în 2023, și continuăm să îl vedem în cele mai avansate modele, chiar și în cele concepute pentru utilizare exclusivă de către comunități de experți și de persoane pasionate de tehnologie.

Poate că a venit timpul să acceptăm că aceasta va rămâne o problemă și să înțelegem că trebuie să ne asumăm responsabilitatea pentru ceea ce creăm și împărtășim folosind instrumentele AI.

Faptul că, deși pare o problemă bine cunoscută, experții în riscuri AI cad pradă scrierii persuasive și convingătoare a AI este cu siguranță îngrijorător. Situația devine și mai complexă pe măsură ce adoptarea continuă să se accelereze la viteză maximă, depășind alfabetizarea digitală, în timp ce incoerențele și citările fabricate se înmulțesc.

Cazurile în care halucinațiile AI au fost expuse tind să fie cele în care verificarea faptelor este crucială – ceva de care Zuckerberg ar trebui să fie reamintit acum că și-a eliminat departamentul de verificare a faptelor. Acest lucru este evident în special în instanțe, unde avocații și judecătorii lucrează pentru a verifica faptele și cazurile, și în mass-media, unde acuratețea și validarea surselor contează.

Dar ce se întâmplă în cazurile în care nimeni nu analizează aceste detalii? Ce se întâmplă în contexte zilnice, mai personale? În acest moment, milioane de studenți memorează răspunsuri generate de AI pentru studiile lor, utilizatorii urmează instrucțiuni furnizate de AI pentru a trata afecțiuni, iar alții învață despre subiecte noi, având încredere totală în tehnologie.

Consecințele acestei noi realități cu care ne confruntăm sunt incommensurabile și imprevizibile, iar adevărul – pentru moment – se află în mâinile celor care își iau timpul să pună întrebări și să verifice.

V-a plăcut acest articol?
Acordați-i o notă!
Nu mi-a plăcut deloc Nu prea mi-a plăcut A fost ok Destul de bun! Mi-a plăcut mult!

Ne bucurăm că ți-a plăcut munca noastră!

Pentru că prețuim părerea ta, ne-ai putea lăsa o recenzie pe Trustpilot? Durează doar un moment și face o mare diferență pentru noi. Îți mulțumim pentru sprijin!

Oferă-ne o notă pe Trustpilot
0 Votat de 0 utilizatori
Titlu
Comentariu
Vă mulțumim pentru feedback
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Lasă un comentariu

Loader
Loader Mai mult...