
Image generated with OpenAI
Opinie: Modelele AI sunt „creaturi” misterioase, iar chiar și creatorii lor nu le înțeleg pe deplin
Studiul recent al Anthropic despre modul în care funcționează modelul său Haiku Claude 3.5 promite revelații inovatoare și o scânteie de înțelegere asupra modului în care funcționează tehnologiile avansate de AI. Dar ce înseamnă când spun că LLM-urile sunt „organisme vii” care „gândesc”?
Acum câteva zile, Anthropic a publicat două lucrări cu cercetări inovatoare despre modul în care funcționează Modelele de Limbaj de Dimensiuni Mari (LLMs). Deși dezvoltările tehnice au fost interesante și relevante, ceea ce mi-a atras cel mai mult atenția a fost vocabularul folosit de experții în AI.
În studiul Despre Biologia unui Model Lingvistic de Mari Dimensiuni, cercetătorii s-au comparat cu biologii care studiază „organismele vii” complexe care s-au evoluat de-a lungul a miliarde de ani.
„La fel, în timp ce modelele lingvistice sunt generate de algoritmi de instruire simpli, concepuți de oameni, mecanismele născute din acești algoritmi par a fi destul de complexe”, au scris oamenii de știință.
În ultimii ani, modelele de AI s-au dezvoltat semnificativ. Și am fost martorii evoluției sale rapide în ultimele luni. Am văzut cum ChatGPT a trecut de la un model doar text la un companion care vorbește, până la un agent multidimensional care poate genera și imagini uimitoare în stil Studio Ghibli.
Dar, ce se întâmplă dacă modelele curente de AI ating acel nivel SF de dezvoltare a unui raționament atât de avansat încât nici măcar creatorii lor nu pot înțelege procesele și sistemele lor? Există numeroase mistere în jurul tehnologiilor AI care ar putea fi relevante de reevaluat – sau de explorat – în 2025.
Paradoxul Înfricoșător al Modelelor AI de Tip Cutie Neagră
Există numeroase discuții despre adoptarea IA și alfabetizarea IA, și cum cei care înțeleg cum funcționează modelele generative de IA sunt mai puțin predispuși să considere chatbots ca fiind „prieteni” sau aplicații „magice”. Cu toate acestea, există o altă dezbatere – printre experți și oameni mai familiarizați cu tehnologia – dacă să comparăm sau să considerăm LLM-urile ca fiind creații independente. În ceea ce privește ultimul aspect, există un ingredient special, un mister cunoscut sub numele de „paradoxul cutiei negre AI”, care joacă un rol crucial în discuție.
Sistemele de învățare profundă sunt antrenate pentru a recunoaște elemente și tendințe în moduri similare cu cele umane. La fel cum îi învățăm pe copii să recunoască modele și să atribuie cuvinte specifice diferitelor obiecte, LLM-urile au fost antrenate să facă conexiuni unice și să construiască rețele care devin din ce în ce mai complexe pe măsură ce „cresc”.
Samir Rawashdeh, profesor asociat de Inginerie Electrică și Informatică, se specializează în inteligență artificială și explică că, la fel cum se întâmplă când studiem inteligența umană, este aproape imposibil să vedem efectiv cum sistemele de învățare profundă iau decizii și ajung la concluzii. Acesta este ceea ce experții numesc „problema cutiei negre”.
Modelele de IA Pun la Încercare Înțelegerea Umană
Studiul recent al Anthropic a adus lumină asupra situației cutiei negre a IA, explicând cum „gândește” modelul său în anumite scenarii care au fost anterior neclare sau chiar complet eronate. Chiar dacă studiul se bazează pe modelul Claude 3.5 Haiku, acesta permite experților să dezvolte instrumente și să analizeze caracteristici similare pe alte modele de IA.
„Înțelegerea naturii acestei inteligențe este o provocare științifică profundă, care are potențialul de a ne remodela concepția despre ce înseamnă să ‘gândești'”, afirmă articolul împărtășit de cercetătorii de la Anthropic.
Cu toate acestea, termenul de “gândire”, atribuit tehnologiilor AI, deranjează anumiți experți din industrie și face parte din critica investigației. Un utilizator Reddit a explicat de ce irită un grup de oameni: “Există o multitudine de antropomorfizări în tot articolul care obscurizează munca. De exemplu, continuă să folosească cuvântul ‘gândire’ când ar trebui să spună ‘calcul’. Vorim despre software de calculator, nu despre un creier biologic.”
Deși termenii „umanizați” ajută persoanele non-tehnice să înțeleagă mai bine modelele AI și să genereze dezbateri în comunitate, adevărul este că, indiferent dacă spunem „calculăm” sau „gândim”, aceeași provocare rămâne: nu avem o înțelegere completă sau transparență totală asupra modului în care funcționează LLM-urile.
Ce să așteptăm de la modelele avansate de AI în viitorul apropiat
Ți se poate imagina ignorând existența tehnologiilor avansate de AI precum ChatGPT, DeepSeek, Perplexity sau Claude – acum sau în viitorul apropiat? Toate semnele indică faptul că nu mai există cale de întoarcere. AI-ul generativ și cel de raționament au transformat deja viața noastră de zi cu zi și vor continua să evolueze.
Aproape în fiecare zi la WizCase raportăm o nouă evoluție în industrie – un nou model AI, un nou instrument AI, o nouă companie AI – care are potențialul de a avea un impact mare în societatea noastră. Ideea de a lua o pauză pentru a obține mai întâi o înțelegere mai bună a acestor modele avansate și a modului în care funcționează – sau chiar de a încetini puțin – pare imposibilă, având în vedere ritmul rapid al cursa AI și implicarea guvernelor și a celor mai puternice companii din lume.
„Modelele AI au o influență tot mai mare asupra modului în care trăim și lucrăm, trebuie să le înțelegem suficient de bine pentru a ne asigura că impactul lor este pozitiv”, afirmă documentul Anthropic. Chiar dacă sună un pic nerealist, cercetătorii rămân optimiști: „Credem că rezultatele noastre aici, și traiectoria de progres pe care se bazează, sunt dovezi interesante că putem face față acestei provocări.”
Dar cât de repede se pot mișca aceste descoperiri? Articolul notează de asemenea că rezultatele acoperă doar câteva domenii și cazuri specifice, și nu este posibil să se construiască concluzii mai generale. Așadar, probabil nu suficient de rapid.
În timp ce reglementatorii introduc măsuri precum Actul UE privind IA, pentru a solicita mai multă transparență, atrăgând acuzații și râcniri din partea marilor companii de tehnologie pentru că ar încetini progresul, modelele puternice de IA continuă să avanseze.
Ca societate, trebuie să ne străduim să găsim un echilibru între aprofundarea înțelegerii modului în care funcționează aceste tehnologii și adoptarea lor în moduri care să aducă beneficii semnificative și progres comunităților noastre. Este posibil acest lucru? Ideea de a ne ruga sau spera pur și simplu că aceste „creaturi” rămân „etic” și „bun” nu pare atât de nerealistă în acest moment.
Lasă un comentariu
Anulează