Inteligența artificială inventează fiecare al treilea răspuns

Inteligența artificială (IA) este folosită zilnic de milioane de oameni ca sursă de informare, însă o nouă analiză arată cât de fragil este acest obicei. Potrivit unui studiu realizat de Uniunea Europeană de Radio și Televiziune (EBU), cele mai populare chatboturi IA, precum ChatGPT, Claude sau Gemini, „inventează” până la 40% din răspunsuri, prezentându-le ca fapte reale și uneori atribuindu-le chiar surse false.

Cercetătorii au testat acuratețea mai multor chatboți pe sute de întrebări legate de știință, politică, evenimente istorice și actualitate. Rezultatul: niciun sistem nu a fost complet corect, iar rata de eroare a variat între 15% și 40%, în funcție de temă. „Sistemele par convingătoare, chiar și atunci când spun lucruri complet false”, avertizează profesorul Peter Posch, economist la Universitatea Tehnică din Dortmund. „Acest lucru le face deosebit de periculoase pentru utilizatorii neexperimentați, care nu pot identifica imediat greșelile.”

Cauzele sunt multiple. Pe de o parte, modelele de limbaj se bazează pe date de antrenament depășite, adesea vechi de luni sau ani. Informațiile corecte la momentul respectiv pot fi azi false. Pe de altă parte, apar „halucinațiile” IA, situații în care sistemul creează legături inexistente între date sau inventează surse pentru a părea coerent. Un exemplu: un chatbot care „știe sigur” că Papa Francisc este în viață, deși contextul din prompt era o întrebare despre evenimente viitoare; altul, care nu recunoaște aderarea Suediei la NATO.
Nemurirea sufletului, prin ochii inteligenței artificiale ChatGPT

Riscuri pentru societate și jurnalism

EBU avertizează că aceste erori nu sunt doar tehnice, ci pot avea consecințe sociale grave. Pe măsură ce tot mai mulți oameni își iau informațiile de la chatboți, răspândirea dezinformării devine mai rapidă și mai subtilă. Utilizatorii tind să citeze răspunsurile IA ca adevăruri, le distribuie pe rețelele sociale și, în unele cazuri, le folosesc în lucrări academice sau decizii politice personale.

Mulți oameni nu știu că aceste sisteme pot halucina. Ei cred că inteligența artificială oferă informații obiective și verificate, o presupunere periculoasă”, notează autorii studiului.

Jurnalismul tradițional este și el afectat. Chatboții atribuie adesea informațiile inventate unor instituții serioase, precum ARD, ZDF sau Tagesschau din Germania, ceea ce subminează încrederea publicului în presa profesionistă. „Niciuna dintre redacțiile menționate nu a publicat informațiile respective, însă utilizatorii, văzând numele, le consideră credibile”, arată raportul.
OpenAI a lansat ChatGPT-5: funcționează ca „un expert în orice domeniu, cu un doctorat”

Ce pot face utilizatorii

Studiul recomandă prudență și verificare constantă. Informațiile importante ar trebui întotdeauna comparatate cu surse jurnalistice consacrate, nu preluate automat de la un chatbot. EBU propune și campanii educaționale în școli și universități, menite să explice cum funcționează IA și cum pot fi detectate erorile.

Chatboții pot fi un instrument util pentru scris sau traduceri, dar nu ar trebui considerați surse de știri sau de fapte. Nimeni nu ar trebui să se bazeze 100% pe un sistem automatizat atunci când caută adevărul”, conchide raportul. Deocamdată, chiar și în era digitală, verificarea umană și jurnalismul responsabil rămân indispensabile.

URMĂREȘTE-NE pe FACEBOOK sau X!