
Image generated with DALL·E through ChatGPT
Opinie: Înșelătoriile cu Deepfake Exploatează Dragostea și Încrederea ca Niciodată Până Acum
Înșelătoriile conduse de AI sunt în creștere, cu infractori cibernetici care folosesc tehnologia deepfake pentru a crea videoclipuri și imagini convingătoare care manipulează victimele. De la o femeie franceză care a crezut că îl ajută pe Brad Pitt, la o victimă convinsă de un deepfake de înaltă calitate, liniile între realitate și decepție se estompează. Pe măsură ce instrumentele AI evoluează, la fel fac și riscurile.
Mulți dintre noi am văzut știrea în ianuarie: o femeie franceză a pierdut peste 850.000 de dolari într-o înșelătorie, deoarece a crezut că îi dă banii lui Brad Pitt – bărbatul de care credea că este îndrăgostită de peste un an.
Escrocii au folosit inteligența artificială generativă avansată pentru a crea „selfie-uri” și a fabrica dovezi, convingându-și victima, Anne – o designeră de 53 de ani care trecea printr-un divorț – de povestea tragică a unui Pitt fals cu nevoi medicale urgente. Ei au pretins că fondurile lui sunt blocate din cauza divorțului său de la Angelina Jolie.
Anne a luat decizia curajoasă – și riscantă – de a-și împărtăși povestea public, înfruntând milioane de batjocuri, insulte și atacuri virtuale. „Ca o proastă, am plătit… De fiecare dată când îmi îndoiam de el, reușea să îmi disipeze îndoielile,” a spus ea într-un show Youtube în limba franceză, după cum a relatat BBC. „Am fost păcălită, recunosc, și de aceea am ieșit în față, pentru că nu sunt singura.”
Ea nu este. Câteva luni mai târziu, poliția spaniolă a arestat 5 persoane care au înșelat alte două femei, pretinzând că sunt Pitt. Acum câteva zile, un bărbat chinez a fost și el păcălit, fiind convins că iubita lui virtuală avea nevoie de bani pentru intervenții medicale și pentru a-și finanța afacerea.
Victimele au primit videoclipuri și fotografii personalizate – imagini care nu erau disponibile în altă parte pe internet – ceea ce le-a convins și mai mult de minciunile elaborate ale înșelătorilor lor.
Un raport recent de la Entrust sugerează că tentativele de Deepfake au loc la fiecare 5 minute. Noi cazuri de persoane înșelate cu ajutorul inteligenței artificiale generative apar în fiecare zi – un trend îngrijorător, mai ales având în vedere miile, sau chiar milioanele de oameni îngropați în datorii și rușine, care nu îndrăznesc să raporteze acest lucru autorităților, cu atât mai puțin să îl facă public.
Creșterea înșelătoriilor DeepFake
Mai multe studii și rapoarte au tras semnale de alarmă despre creșterea fraudelor și atacurilor cibernetice alimentate de AI. Date recente din Tendințele și perspectivele privind frauda în 2025 de la TrustPair au arătat o creștere de 118% de la an la an a fraudei alimentate de AI, așa cum a fost raportat de CFO.
Bună, Hiya, o companie americană specializată în soluții de securitate vocală și performanță, a împărtășit recent rezultatele unui sondaj, dezvăluind că 31% dintre clienții din șase țări au primit apeluri deepfake în 2024, iar 45% dintre ei au fost înșelați – 34% din acest grup au pierdut bani și 32% au avut informații personale furate. În medie, victimele pierd peste 500 de dolari fiecare din cauza înșelătoriilor telefonice.
Cu câteva zile în urmă, The Guardian a dezvăluit că o rețea organizată în Georgia – în Europa de Est – a folosit reclame false pe Facebook și Google pentru a înșela peste 6.000 de oameni din Europa, Canada și Marea Britanie, făcând 35 de milioane de dolari prin operațiunile lor.
Aproximativ 85 de escroci georgieni bine plătiți au folosit figuri publice precum jurnalistul englez Martin Lewis, scriitorul și aventurierul Ben Fogle, și Elon Musk pentru escrocheriile lor. Escrocii au promovat criptomonede false și alte scheme de investiții, făcând victimele să transfere bani prin bănci digitale precum Revolut – care a primit recent o licență bancară în Marea Britanie.
AI avansată, escrocherii mai sofisticate
Criminalii cibernetici au folosit AI generativă în ultimii ani, folosind unelte precum ChatGPT pentru a crea și traduce e-mailuri atrăgătoare și pentru a genera conținut text persuasiv. Acum, pe măsură ce uneltele AI evoluează, utilizarea imaginilor și a videoclipurilor generate de AI a crescut.
Cu câteva săptămâni în urmă, ByteDance și-a prezentat cel mai recent instrument video AI, OmniHuman-1, capabil să genereze unul dintre cele mai realiste deepfake-uri de pe piață. Între timp, tot mai multe companii de AI dezvoltă tehnologii similare. Pare doar o chestiune de timp până când aceste unelte vor fi, de asemenea, folosite pentru escrocherii.
Deși aceste tehnologii pot fi utilizate „în bună credință” și chiar pentru a contracara creșterea escrocheriilor – ca ‘Bunica’ Daisy AI a O2, concepută pentru a angaja escrocii în apeluri în timp real și a-i distrage de la victimele reale – consecințele utilizării lor malefice par imensurabile.
La Wizcase, am relatat recent o creștere de 614% în atacurile de tip “Scam-Yourself”, observând cum hackerii folosesc tehnologiile deepfake pentru a face ca conținutul fals să pară “mai realist” și cum companiile de social media, precum Meta, au fost nevoite să intervină în cazul escrocheriilor cu tăierea porcilor, deoarece mulți actori de amenințări utilizează aceste platforme. În cercetare, Meta a menționat că multe înșelătorii au început în aplicațiile de întâlniri, demonstrând cât de comună este dragostea romantică ca momeală – acum și istoric.
Iubirea: O momeală puternică
Criminalii cibernetici nu sunt doar pricepuți la înțelegerea și utilizarea inteligenței artificiale avansate – ei au și o înțelegere profundă a inteligenței umane. Actorii de amenințări știu cum să identifice vulnerabilitățile, să construiască încredere și să-și facă cererile în momentul potrivit.
Studiul Do You Love Me? Psychological Characteristics of Romance Scam Victims, publicat în 2018 de către doctorul Monica T. Whitty, explică cum grupurile internaționale de criminali au realizat escrocherii sentimentale de mulți ani – chiar și înainte de Internet – și cum femeile de vârstă mijlocie, bine educate, sunt susceptibile să cadă în acest tip de înșelăciune – la fel ca Anne.
Ce putem aștepta acum, la opt ani după acest studiu, într-o eră cu o tehnologie aproape de-a dreptul science-fiction? Probabil suntem cu toții mai vulnerabili decât credem.
„Victimele acestui tip de fraudă sunt adesea persoane în căutarea unui sens, care sunt emoțional vulnerabile,” a scris Annie Lecompte, profesoară asociată la Universitatea din Quebec din Montreal (UQAM), într-un articol recent publicat în The Conversation. „Deși este ridiculizată și înțeleasă greșit, frauda romantică se bazează pe mecanisme psihologice complexe care exploatează încrederea, emoțiile și vulnerabilitatea victimelor.”
O inimă frântă, un portofel gol
Liu—numele de familie al bărbatului chinez care a pierdut recent 200.000 de yuani, aproximativ 28.000 de dolari, într-o înșelătorie alimentată de inteligența artificială—a crezut cu adevărat că iubita lui AI era reală, deoarece a văzut fotografii personalizate și chiar videoclipuri. Construind o legătură emoțională tot mai puternică… cu înșelătorii săi.
Deși el nu a oferit mai multe detalii despre contextul din rapoarte, o altă victimă, femeia de 77 de ani, Nikki MacLeod, a făcut-o. Ea de asemenea credea că se află într-o relație reală cu o iubită AI și i-a trimis acesteia £17,000—aproximativ $22,000—prin transferuri bancare, PayPal și carduri cadou.
„Nu sunt o persoană proastă, dar ea a reușit să mă convingă că este o persoană reală și că vom petrece restul vieții împreună,” a declarat MacLeod pentru BBC.
MacLeod se simțea singură și tristă când a cunoscut-o pe Alla Morgan într-un chat de grup. După un timp, MacLeod a cerut un video live, dar Morgan a spus că nu este posibil, deoarece lucrează pe o platformă de petrol. Când MacLeod a început să bănuiască, Morgan a început să trimită videoclipuri realiste. „Mi-a trimis un videoclip pentru a spune ‘Bună Nikki, nu sunt o înșelătoare, sunt pe platforma mea de petrol’, și am fost total convinsă de asta,” a explicat MacLeod. Conținutul este disponibil pe site-ul BBC și este ușor de înțeles de ce MacLeod a crezut că este real – este un deepfake de înaltă calitate.
BBC a cerut unui expert în securitate cibernetică și interacțiune om-calculator de la Universitatea Abertay, Dr. Lynsay Shepherd, să analizeze fotografiile și videoclipurile pe care MacLeod le-a primit. „La prima vedere pare legitim, dacă nu știi ce să cauți, dar dacă te uiți la ochi – mișcările ochilor nu sunt tocmai corecte,” a spus Dr. Shepherd.
„Documentele păreau autentice, videoclipurile păreau reale, banca părea reală,” a spus MacLeod. „Cu introducerea inteligenței artificiale, absolut orice poate fi fals.”
Lasă un comentariu
Anulează