Universitatea din Chicago oferă artiștilor cu Glaze și Nightshade o apărare împotriva AI

Image by Glashier, from Freepik

Universitatea din Chicago oferă artiștilor cu Glaze și Nightshade o apărare împotriva AI

Timp de citire: 3 min

Grăbită? Iată rezumatul rapid!

  • Glaze și Nightshade protejează opera artiștilor împotriva utilizării neautorizate în antrenarea AI.
  • Glaze maschează imaginile pentru a preveni AI să reproduca stilul unui artist.
  • Nightshade perturbă AI prin adăugarea de pixeli „otrăviți” care corup datele de antrenament.

Artiștii se luptă împotriva modelelor de IA exploitative cu Glaze și Nightshade, două instrumente dezvoltate de Ben Zhao și echipa sa de la Laboratorul SAND al Universității din Chicago, așa cum a fost raportat astăzi de MIT Technology Review.

Aceste instrumente își propun să protejeze operele artiștilor de a fi folosite fără consimțământ pentru a antrena modele de IA, o practică pe care mulți creatori o văd ca fiind furt. Glaze, descărcat de peste 4 milioane de ori de la lansarea sa în martie 2023, maschează imaginile adăugând modificări subtile care împiedică IA să învețe stilul unui artist, precizează MIT.

Nightshade, un echivalent „ofensiv”, perturbă în continuare modelele AI prin introducerea unor modificări invizibile care pot corupe învățarea AI dacă sunt folosite în instruire, după cum a remarcat MIT.

Uneltele au fost inspirate de îngrijorările artiștilor cu privire la creșterea rapidă a IA generative, care se bazează adesea pe imagini online pentru a crea noi lucrări. MIT raportează că ilustratoarea de fantezie Karla Ortiz și alți creatori și-au exprimat temerile de a-și pierde mijloacele de subzistență în timp ce modelele AI reproduc stilurile lor distincte fără permisiune sau plată.

Pentru artiști, postarea online este esențială pentru vizibilitate și venit, totuși mulți s-au gândit să își retragă lucrările pentru a evita utilizarea lor în instruirea AI, un act care le-ar împiedica carierele, după cum a notat MIT.

Nightshade, lansat cu un an după Glaze, oferă o apărare mai agresivă, raportează MIT. Prin adăugarea de pixeli „otrăviți” la imagini, acesta perturbă instruirea AI, determinând modelele să producă rezultate distorsionate dacă aceste imagini sunt preluate.

Efectul simbolic al Nightshade a rezonat cu artiștii, care îl văd ca pe o justiție poetică: dacă lucrările lor sunt furate pentru instruirea AI, acestea pot deteriora chiar sistemele care le exploatează.

MIT susține că aceste instrumente au întâmpinat o anumită doză de scepticism, deoarece artiștii s-au îngrijorat inițial despre confidențialitatea datelor. Pentru a aborda această problemă, SAND Lab a lansat o versiune a Glaze care funcționează offline, asigurând că nu există transfer de date și construind încredere cu artiștii temători de exploatare.

Laboratorul a extins recent accesul prin parteneriat cu Cara, o nouă platformă socială care interzice conținutul generat de AI, după cum a notat MIT.

Zhao și echipa sa își propun să schimbe dinamica puterii între creatorii individuali și companiile de AI.

Prin oferirea de instrumente care protejează creativitatea de corporațiile mari, Zhao speră să împuternicească artiștii să-și mențină controlul asupra lucrărilor lor și să redefinească standardele etice în jurul AI și proprietății intelectuale, spune MIT.

Efortul capătă avânt, dar unii experți avertizează că instrumentele s-ar putea să nu ofere o protecție infailibilă, întrucât hackerii și dezvoltatorii de AI explorează modalități de a ocoli aceste măsuri de siguranță, așa cum a remarcat MIT.

Cu Glaze și Nightshade acum disponibile gratuit, Laboratorul SAND al lui Zhao continuă să conducă lupta în apărarea integrității artistice împotriva creșterii influenței creării de conținut condusă de AI.

V-a plăcut acest articol?
Acordați-i o notă!
Nu mi-a plăcut deloc Nu prea mi-a plăcut A fost ok Destul de bun! Mi-a plăcut mult!

Ne bucurăm că ți-a plăcut munca noastră!

Pentru că prețuim părerea ta, ne-ai putea lăsa o recenzie pe Trustpilot? Durează doar un moment și face o mare diferență pentru noi. Îți mulțumim pentru sprijin!

Oferă-ne o notă pe Trustpilot
0 Votat de 0 utilizatori
Titlu
Comentariu
Vă mulțumim pentru feedback
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Lasă un comentariu

Loader
Loader Mai mult...