
Photo by Saúl Bucio on Unsplash
Erorile Generate de AI în Documentele Judiciare Dau Naștere la Probleme Legale pentru Avocați
Un raport distribuit ieri de Reuters dezvăluie că halucinațiile AI – erorile și informațiile inventate de modelele generative AI – cauzează probleme legale în instanțele din Statele Unite.
În grabă? Iată punctele cheie!
- Morgan & Morgan a trimis un email la 1.000 de avocați avertizându-i despre riscurile AI.
- Cazul recent al avocaților Walmart care au recunoscut că folosesc AI pentru cazurile lor a declanșat alarme în comunitatea juridică.
- Folosirea halucinațiilor de chatbot în declarațiile de instanță a devenit o problemă recurentă în ultimii ani.
Luna aceasta, firma de avocatură Morgan & Morgan a trimis un email de avertizare către peste 1,000 de avocați cu privire la riscurile utilizării chatbot-urilor și a cazurilor false generate de inteligența artificială.
Acum câteva zile, doi avocați din Wyoming au recunoscut că au inclus într-un dosar de judecată împotriva Walmart cazuri false generate de AI, iar un judecător federal a amenințat să-i sancționeze.
În decembrie, profesorul de la Stanford și expertul în dezinformare Jeff Hancock a fost acuzat că a folosit AI pentru a fabrica citate de declarații de instanță ca parte a declarației sale în apărarea legii statului din 2023 care incriminează utilizarea deepfake-urilor pentru a influența alegerile.
Numeroase cazuri de acest gen, de-a lungul ultimilor ani, au generat fricțiuni juridice și au adăugat probleme judecătorilor și litiganților. Morgan & Morgan și Walmart au refuzat să comenteze asupra acestei probleme.
AI-ul generativ a ajutat la reducerea timpului de cercetare pentru avocați, dar halucinațiile sale pot implica costuri semnificative. Anul trecut, un sondaj realizat de Thomson Reuters a dezvăluit că 63% dintre avocați au folosit AI pentru muncă și 12% au făcut-o în mod regulat.
Anul trecut, Asociația Baroului American le-a reamintit celor 400.000 de membri ai săi regulile eticii avocațiale, care includ obligația avocaților de a confirma toate informațiile din dosarele lor de instanță, menționând că acest lucru include și informațiile generate de AI, chiar dacă acestea au fost produse în mod neintenționat – așa cum a fost în cazul lui Hancock.
„Când avocații sunt prinși folosind ChatGPT sau orice alt instrument generativ AI pentru a crea citări fără a le verifica, aceasta este incompetență, pur și simplu,” a declarat Andrew Perlman, decanul Facultății de Drept a Universității Suffolk pentru Reuters.
Acum câteva zile, BBC a împărtășit și un raport care avertizează despre citate false generate de AI și problemele cu instrumentele AI în jurnalism.
Lasă un comentariu
Anulează