Erorile Generate de AI în Documentele Judiciare Dau Naștere la Probleme Legale pentru Avocați

Photo by Saúl Bucio on Unsplash

Erorile Generate de AI în Documentele Judiciare Dau Naștere la Probleme Legale pentru Avocați

Timp de citire: 2 min

Un raport distribuit ieri de Reuters dezvăluie că halucinațiile AI – erorile și informațiile inventate de modelele generative AI – cauzează probleme legale în instanțele din Statele Unite.

În grabă? Iată punctele cheie!

  • Morgan & Morgan a trimis un email la 1.000 de avocați avertizându-i despre riscurile AI.
  • Cazul recent al avocaților Walmart care au recunoscut că folosesc AI pentru cazurile lor a declanșat alarme în comunitatea juridică.
  • Folosirea halucinațiilor de chatbot în declarațiile de instanță a devenit o problemă recurentă în ultimii ani.

Luna aceasta, firma de avocatură Morgan & Morgan a trimis un email de avertizare către peste 1,000 de avocați cu privire la riscurile utilizării chatbot-urilor și a cazurilor false generate de inteligența artificială.

Acum câteva zile, doi avocați din Wyoming au recunoscut că au inclus într-un dosar de judecată împotriva Walmart cazuri false generate de AI, iar un judecător federal a amenințat să-i sancționeze.

În decembrie, profesorul de la Stanford și expertul în dezinformare Jeff Hancock a fost acuzat că a folosit AI pentru a fabrica citate de declarații de instanță ca parte a declarației sale în apărarea legii statului din 2023 care incriminează utilizarea deepfake-urilor pentru a influența alegerile.

Numeroase cazuri de acest gen, de-a lungul ultimilor ani, au generat fricțiuni juridice și au adăugat probleme judecătorilor și litiganților. Morgan & Morgan și Walmart au refuzat să comenteze asupra acestei probleme.

AI-ul generativ a ajutat la reducerea timpului de cercetare pentru avocați, dar halucinațiile sale pot implica costuri semnificative. Anul trecut, un sondaj realizat de Thomson Reuters a dezvăluit că 63% dintre avocați au folosit AI pentru muncă și 12% au făcut-o în mod regulat.

Anul trecut, Asociația Baroului American le-a reamintit celor 400.000 de membri ai săi regulile eticii avocațiale, care includ obligația avocaților de a confirma toate informațiile din dosarele lor de instanță, menționând că acest lucru include și informațiile generate de AI, chiar dacă acestea au fost produse în mod neintenționat – așa cum a fost în cazul lui Hancock.

„Când avocații sunt prinși folosind ChatGPT sau orice alt instrument generativ AI pentru a crea citări fără a le verifica, aceasta este incompetență, pur și simplu,” a declarat Andrew Perlman, decanul Facultății de Drept a Universității Suffolk pentru Reuters.

Acum câteva zile, BBC a împărtășit și un raport care avertizează despre citate false generate de AI și problemele cu instrumentele AI în jurnalism.

V-a plăcut acest articol?
Acordați-i o notă!
Nu mi-a plăcut deloc Nu prea mi-a plăcut A fost ok Destul de bun! Mi-a plăcut mult!

Ne bucurăm că ți-a plăcut munca noastră!

Pentru că prețuim părerea ta, ne-ai putea lăsa o recenzie pe Trustpilot? Durează doar un moment și face o mare diferență pentru noi. Îți mulțumim pentru sprijin!

Oferă-ne o notă pe Trustpilot
0 Votat de 0 utilizatori
Titlu
Comentariu
Vă mulțumim pentru feedback
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Lasă un comentariu

Loader
Loader Mai mult...