Pe măsură ce ritmul dezinformării se apropie de cel al informațiilor factuale, devine aproape imposibil să mai deosebești ce este real. Henk van Ess a creat un ghid care învață jurnaliștii, și nu numai, cum să încerce să identifice conținutul generat de IA prin șapte categorii avansate de detecție pe care orice reporter, dar nu numai, trebuie să le stăpânească.
Henk van Ess creează instrumente pentru uz public, precum SearchWhisperer și AI Researcher. Este trainer în redacții din întreaga lume, printre altele Washington Post sau BBC. Conduce Digital Digging unde informațiile open source se întâlnesc cu inteligența artificială și este evaluator pentru International Fact-Checking Network (IFCN) al Poynter și pentru European Fact-Checking Standards Network (EFCSN).
Dezinformarea video este atât de veche încât precede tehnologia modernă AI cu decenii. În 2003, bona Claudia Muro a petrecut 29 de luni în închisoare deoarece o cameră de supraveghere cu rată mică de cadre a făcut ca mișcări blânde să pară violente și nimeni nu s-a gândit să verifice filmarea. În ianuarie 2025, profesoara britanică Cheryl Bennett a fost forțată să se ascundă după ce un videoclip deepfake a arătat-o în mod fals rostind remarci rasiste.
Uneori, cele mai eficiente falsuri nu necesită deloc IA. În mai 2019, un videoclip cu Nancy Pelosi, președinta Camerei Reprezentanților SUA, a fost încetinit la 75% și modificat la nivel de tonalitate pentru a o face să pară în stare de ebrietate. În noiembrie 2018, Casa Albă a distribuit o versiune accelerată a unei interacțiuni dintre corespondentul CNN Jim Acosta și o stagiară de la Casa Albă, făcând ca mișcarea brațului lui să pară mai agresivă decât în realitate.
Henk van Ess a dezvoltat un instrument IA numit Image Whisperer (inițial numit Detectai.live) care, spre deosebire de majoritatea uneltelor IA, îți spune când nu știe ceva în loc să ghicească. Nu încearcă să fie cel mai bun sistem existen, dar încearcă să fie cel mai onest.
Cursa înarmărilor dintre creatorii de AI și detectoare continuă, creatorii beneficiind în prezent de avantajul vitezei. Identificarea a ceea ce este sau nu un deepfake devine un joc de-a șoarecele și pisica, pe măsură ce dezvoltatorii îmbunătățesc tehnologia. Identificarea cu succes a deepfake-urilor necesită combinarea mai multor metode de detecție, menținerea unei vigilențe constante și acceptarea faptului că o detecție perfectă ar putea fi imposibilă. Henk van Ess a identificat șapte categorii prin care IA poate fi detectată.
Eșecuri anatomice și de obiect. Un lider al unui protest cu machiaj impecabil, o victimă a unui dezastru cu părul perfect aranjat sau un moment politic surprins spontan unde toată lumea arată ca la ședință foto ar trebui să declanșeze suspiciuni imediate. IA modernă creează imagini anatomic corecte, dar acestea prezintă adesea o perfecțiune stranie, care nu se găsește în fotografia reală.
Încălcări ale fizicii geometrice. IA ignoră legile naturale. IA asamblează imaginile ca un colaj, nu ca un fotograf. Înțelege elementele vizuale, dar nu și regulile geometrice și fizice care guvernează modul în care funcționează lumina, perspectiva și umbrele în lumea reală. Aceste eșecuri fundamentale sunt mai greu de corectat pentru IA, pentru că necesită o înțelegere a spațiului 3D și a comportamentului luminii.
Chiar dacă suntem încă la începutul erei AI generative, imaginile actuale produse de IA arată adesea umbre și reflexii incorecte din punct de vedere al perspectivei sau generează adesea clădiri unde acoperișurile se aliniază într-o direcție, iar ferestrele în alta. Unde există lumină, există umbre. Relația dintre un obiect, umbra sa și sursa de lumină este simplă geometric, dar greu de reprodus perfect într-o imagine sintetică.
În scene cu o singură sursă de lumină (precum soarele), toate umbrele trebuie să fie orientate în aceeași direcție. IA prezintă adesea oameni cu umbre în direcții multiple, chiar și sub un singur soare, încălcând legile fundamentale ale fizicii.
Inteligența Artificială despre cum funcționează păcănelele. Sfaturi inutile pentru un slot bun
Amprente tehnice și analiza pixelilor. ADN-ul matematic. Atunci când IA creează o imagine lasă în urmă indicii ascunse în fișier. O semnătură matematică asemănătoare cu amprentele digitale invizibile, pe care instrumentele speciale le pot detecta. Aceste indicii se regăsesc în modul în care sunt aranjați pixelii și în felul în care fișierul este comprimat. Camerele surprind imagini cu imperfecțiuni naturale, dezordonate, cum ar fi mici puncte aleatorii provenite de la senzorul lor.
Imaginile generate de IA au în schimb tipare suspect de perfecte. Când experții analizează aceste tipare cu un software specializat, observă forme stelare distincte care nu ar apărea niciodată într-o fotografie reală. Este diferența dintre zgomotul static de la un TV vechi și încercarea unui computer de a simula acel zgomot. Versiunea falsă are o ordine ascunsă ce o dă de gol, dacă folosești unelte adecvate.
Tehnologia TrueMedia.org poate analiza media suspectă și identifica deepfake-uri în audio, imagini și video. Exemple recente de deepfake-uri semnalate de TrueMedia.org includ o presupusă fotografie cu arestarea lui Donald Trump și o imagine falsă a președintelui Biden alături de înalți militari.
Pe de altă parte, puteți verifica informațiile ascunse din fișier: click dreapta pe fișier → „Proprietăți” (PC) sau „Get Info” (Mac) și uitați-vă la metadate. Acestea arată ce software a creat fișierul și când. Imaginile AI prezintă deseori timpi de editare sau instrumente care nu se potrivesc cu povestea declarată. IA are tendința să „netezească” suprafețele ce ar trebui să fie imperfecte: ziduri, țesături, apă și să le facă anormal de uniforme unde ar trebui să existe denivelări, variații sau urme de uzură.
Când vorbirea sintetică se trădează singură. Tehnologia de clonare vocală poate reproduce vocea oricui folosind doar câteva secunde de audio, dar lasă urme detectabile în tiparele de vorbire, autenticitatea emoțională și caracteristicile acustice. Chiar dacă IA poate avea o acuratețe impresionantă, vocile sintetice încă întâmpină dificultăți în a reproduce subtilitățile umane care fac vorbirea cu adevărat autentică.
Inteligența Artificială poate acum să creeze imagini din gândurile tale
În martie 2019, CEO-ul unei companii energetice din Marea Britanie a primit un apel de la „șeful” său cu un accent german perfect, cerând un transfer mare de bani. Numai un al doilea apel, suspect, de la un număr austriac, a dezvăluit înșelăciunea IA.
În 2024, consultantul politic Steven Kramer a plătit 150$ pentru a crea un robocall deepfake care îl imita pe președintele SUA Joe Biden, îndemnând oamenii să nu voteze în alegereile primare din Partidul Democrat din New Hampshire. Conform documentelor din procesului intentat împotriva lui Kramer, deepfake-ul a fost creat în mai puțin de 20 de minute și a costat doar 1$. Kramer a declarat pentru CBS News că a obținut „expunere de 5 milioane $” pentru eforturile sale.
Deepfake-urile audio prezintă deseori următoarele indicii: cadența, mai ales spre final, pare nenaturală, robotică; ritmul este nenatural, fără pauze normale sau respirație; pronunția este impecabilă, lipsită de imperfecțiunile naturale ale vorbirii; nu există zgomot ambiental; persoana uzează fraze sau termeni pe care în mod normal nu îi folosește.
Pentru o verificare rapidă, puteți apela la Hiya Deepfake Voice Detector, un plugin simplu pentru Chrome, utilizabil de 20 ori pe lună. Hiya analizează vocile din videoclipuri și audio în timp real, necesită doar o secundă de audio pentru evaluare și este compatibil cu orice site: social media, știri, platforme video. O altă variantă este să descărcați fragmentul audio și să-l introduceți în Notta.ai pentru transcriere.
Logică temporală și contextuală. IA ratează tabloul general. Chiar și atunci când imaginile generate de IA arată realist la nivel de pixeli, ele adesea eșuează în a respecta constrângerile logice ale timpului, spațiului și contextului cultural. IA poate produce un obiect sau o scenă realistă, dar adesea ratează detalii esențiale: cronologie, consistență sezonieră, marcaje de timp corecte sau reguli culturale simple.
Un român concediat de Inteligența Artificială a câștigat procesul cu Uber
Exemple de eșecuri logice: o imagine a unei demonstrații care arată umbre de vară, dar pretinde că e făcută iarna; steaguri afișate cu design greșit sau în contexte imposibile din punct de vedere istoric. Aceste erori subtile cer verificări mai degrabă de natură jurnalistică și culturală, nu doar tehnică.
Cum verificați aceste imagini? Uitați-vă la: lumină și umbre dacă se potrivesc cu sezonul și ora pretinse; îmbrăcăminte adică fiți atenți dacă oamenii poartă haine adecvate vremii și contextului; observați dacă decorurile și mediul corespund cu regiunea/cultura în cauză; comparați poziția umbrelor cu ora și locul precizat; verficați cum era vremea reală la data și locul evenimentului. Întotdeauna comparați imaginea cu cea din surse independente și verificate. Metadatele pot dezvălui ora și locația reală a capturii.
Coerența narativă și semantică. Când IA inventează povești imposibile. IA poate produce imagini și texte extrem de convingătoare la nivel vizual sau lingvistic, dar deseori eșuează atunci când este pusă să respecte logica narativă de ansamblu. Povestea pe care o spune imaginea sau transcriptul poate părea inițial plauzibilă, însă privită cu atenție, apar contradicții interne, elemente imposibile sau detalii care nu „se leagă” între ele.
Exemple de inconsecvențe semantice: o fotografie care pretinde a fi de la o ceremonie oficială, dar arată persoane ce nu au fost niciodată asociate cu acel eveniment; o transcriere audio generată de IA în care un politician folosește expresii pe care nu le-a folosit niciodată și care nu se potrivesc cu stilul său obișnuit; imagini care combină elemente din epoci diferite, de pildă, un telefon mobil într-o scenă pretinsă din anii ’80.
Semnale de rețea și distribuție. Urmele sociale ale conținutului IA. Chiar și atunci când o imagine, un video sau un audio generat de IA arată impecabil și trece testele tehnice, distribuirea sa online lasă adesea urme distincte.
Informația falsă are un tipar de răspândire diferit de cel al conținutului autentic, iar analiza modului în care circulă poate dezvălui originea și natura sa.
Exemple de semnale sociale suspecte: conturi care publică aceeași imagine simultan, fără surse clare; lipsa martorilor direcți sau a altor materiale media independente de la același eveniment; distribuirea disproporționată în grupuri obscure înainte de a ajunge în mainstream.
O verificare rapidă de 30 de secunde presupune să cautați imaginea/video cu Reverse Image Search (Google, Yandex, TinEye) și să vedeți dacă există doar la câteva surse obscure sau dacă apare în media de încredere.
Un inginer chinez de la Google, arestat pentru furt de inteligență artificială
Analizați sursa inițială. Cine a publicat prima dată materialul? Are istoric credibil sau nu? Este împărtășit de conturi noi, anonime, cu activitate suspectă? Comparați ora publicării cu fusul orar al conturilor pentru că, adesea, campaniile coordonate arată o sincronizare anormală. Monitorizați cine redistribuie conținutul: influenceri autentici sau rețele artificiale de conturi? Dacă un material apare pe mai multe platforme (Twitter, Telegram, TikTok) în același timp, este un semn de orchestrare.
Aceste șapte categorii împreună formează un cadru practic pentru detectarea conținutului generat de IA și practic trebuie să folosim IA pentru a detecta falsurile produse cu IA.