IA Generativă Provocă Alarmă în Știință Pe Măsură ce Datele False Amenință Credibilitatea
Grăbită? Iată informațiile esențiale!
- AI-ul generativ permite crearea rapidă de date și imagini științifice realiste, dar false.
- Cercetătorii se luptă să detecteze imaginile generate prin AI din cauza lipsei unor semne evidente de manipulare.
- Figurile generate de AI s-ar putea să se afle deja în revistele științifice.
Imaginile generate de inteligența artificială (AI) stârnesc preocupări majore printre cercetători și editori, deoarece noile instrumente generative AI fac uimitor de ușor să se creeze date științifice și imagini false, așa cum se menționează într-un comunicat de presă al Nature.
Această avansare amenință credibilitatea literaturii academice, cu experții temându-se de o creștere a studiilor fabricate, conduse de AI, care ar putea fi greu de identificat.
Jana Christopher, analistă de integritate a imaginilor la FEBS Press în Germania, subliniază că evoluția rapidă a AI generative stârnește îngrijorări tot mai mari cu privire la potențialul său de utilizare abuzivă în știință.
„Persoanele care lucrează în domeniul meu – integritatea imaginilor și etica publicațiilor – devin din ce în ce mai îngrijorate cu privire la posibilitățile pe care le oferă,” a declarat Jane, conform celor relatate de Nature.
Ea observă că, în timp ce unele reviste ar putea accepta text generat prin AI în conformitate cu anumite reguli, imaginile și datele generate de AI sunt văzute ca depășind o limită care ar putea afecta profund integritatea cercetării, așa cum a notat Nature.
Detectarea acestor imagini create de AI a devenit o provocare primordială, spune Nature. Spre deosebire de manipulările digitale anterioare, imaginile generate de AI adesea nu prezintă semnele obișnuite ale falsificării, ceea ce face dificilă dovedirea oricărei înșelătorii.
Specialista în analiza de imagini Elisabeth Bik și alți cercetători sugerează că figurile produse de AI, în special în biologia moleculară și celulară, ar putea fi deja prezente în literatura publicată, conform raportărilor Nature.
Unelte precum ChatGPT sunt acum folosite regulat pentru redactarea articolelor, identificabile prin expresiile tipice ale chatbot-urilor lăsate neredactate, însă imaginile generate de AI sunt mult mai greu de detectat. În răspuns la aceste provocări, companiile de tehnologie și instituțiile de cercetare dezvoltă instrumente de detectare, așa cum a notat Nature.
Instrumente alimentate de AI, precum Imagetwin și Proofig conduc revoluția, instruindu-și algoritmii să identifice conținutul generat de AI. Dror Kolodkin-Gal, co-fondatorul Proofig, raportează că instrumentul lor detectează cu succes imaginile AI 98% din timp, dar subliniază că verificarea umană rămâne esențială pentru a valida rezultatele, așa cum a spus Nature.
În lumea editorilor, reviste precum Science utilizează Proofig pentru scanări inițiale ale materialelor trimise, iar gigantul editorial Springer Nature dezvoltă instrumente proprietare, Geppetto și SnapShot, pentru identificarea neregularităților în text și imagini, așa cum a relatat Nature.
Alte organizații, precum Asociația Internațională a Editorilor Științifici, Tehnici și Medicali, lansează de asemenea inițiative pentru a combate fabricile de lucrări științifice și pentru a asigura integritatea cercetării, conform raportărilor făcute de Nature.
Cu toate acestea, experții avertizează că editorii trebuie să acționeze rapid. Expertul în analiza imaginilor științifice, Kevin Patrick, se teme că, dacă acțiunile întârzie, conținutul generat de AI ar putea deveni încă o problemă nerezolvată în literatura academică, așa cum a raportat Nature.
În ciuda acestor preocupări, mulți rămân speranțoși că tehnologia viitorului se va dezvolta pentru a detecta înșelăciunile generate de AI de astăzi, oferind o soluție pe termen lung pentru a proteja integritatea cercetării academice.
Lasă un comentariu
Anulează