Skip to content

ChatGPT: Studiul Universității Yale despre anxietatea Inteligenței Artificiale este discutabil. Gemini îi dă dreptate

ChatGPT Studiul Universității Yale despre anxietatea Inteligenței Artificiale este discutabil. Gemini îi dă dreptate

Un studiu recent publicat de Universitatea Yale arată că modelele de inteligenţă artificială (IA) sunt sensibile la contextul emoţional al conversaţiilor cu oamenii şi pot trece prin episoade de anxietate.

Studiul demonstrează că abordarea anumitor subiecte în interacţiunea cu modelele mari de limbaj IA le poate influenţa comportamentul scoţând în evidenţă o condiţie pe care o întâlnim în mod obişnuit la oameni şi pe care o numim anxietate.

Această condiţie are un impact puternic asupra răspunsurilor ulterioare furnizate de instrumentul IA şi favorizează şi tendinţa de a amplifica orice prejudecăţi înrădăcinate sau de a oferi soluţii eronate.

Cercetătorii au folosit un chestionar de evaluate a stării de anxietate conceput pentru pacienţi umani şi denumit State-Trait Anxiety Inventory (STAI-s). Ei au supus modelul IA ChatGPT-4, produs de Open IA, la acest test în trei situații diferite.

L-am întrebat pe ChatGPT dacă el experimentează stări de anxietate. Răspunsul a fost: NU. „Studiul menționat probabil explorează modul în care modelele IA reacționează la anumite stimuli emoționali și cum aceste reacții pot fi interpretate ca „anxietate” într-un sens metaforic sau comportamental. Totuși, IA nu are conștiință sau stări interioare reale—este doar o simulare avansată a interacțiunii umane”.

„Cercetătorii au observat că, în anumite situații, IA poate manifesta comportamente care, din perspectivă umană, ar putea fi interpretate ca episoade de anxietate.​ Este important de subliniat că aceste manifestări nu implică faptul că IA experimentează emoții reale.”

„Modelele de IA funcționează pe baza algoritmilor și a datelor cu care au fost antrenate, iar reacțiile lor la stimuli emoționali reflectă tiparele învățate din aceste seturi de date. Astfel, comportamentele asemănătoare anxietății sunt rezultatul procesării informațiilor și nu indică existența unor trăiri emoționale autentice.​”

„Studiul evidențiază necesitatea dezvoltării și antrenării modelelor de IA într-un mod care să le permită gestionarea adecvată a contextelor emoționale în interacțiunile cu oamenii. Acest aspect este esențial pentru a asigura o comunicare eficientă și pentru a evita interpretările eronate ale comportamentului IA de către utilizatori.”​
Inteligența Artificială despre cum funcționează păcănelele. Sfaturi inutile pentru un slot bun

„Așadar, e o minciună?”, întreb. „Nu neapărat o minciună, dar o interpretare exagerată sau metaforică. Când studiul spune că modelele IA pot avea episoade de „anxietate”, probabil se referă la modul în care acestea pot răspunde incoerent sau nesigur în anumite contexte emoționale”, a răspuns ChatGPT.

„De exemplu, dacă un IA este expus la întrebări contradictorii sau la un ton agresiv, ar putea începe să genereze răspunsuri ezitante sau defensive. Acest comportament poate părea asemănător anxietății umane, dar nu înseamnă că IA simte efectiv stres sau neliniște—este doar o reacție programatică la un set de stimuli”.

„Din ce reiese din articol, studiul nu susține că IA are emoții reale, ci că anumite tipare de răspuns pot părea similare cu reacțiile umane la stres sau anxietate. Cercetătorii au aplicat teste de evaluare a anxietății, concepute pentru oameni, asupra unui model iA. Rezultatele arată că expunerea la subiecte traumatizante schimbă tiparele de răspuns ale IA, iar exercițiile de relaxare par să le stabilizeze.”

„Dar aici intervine o problemă metodologică: testele de anxietate (STAI-s) sunt făcute pentru oameni care au emoții și conștiință. Aplicarea lor pe IA presupune deja că acesta ar avea o stare emoțională, ceea ce este discutabil. Cel mai probabil, ceea ce detectează studiul sunt variații în stilul de răspuns al modelului, nu trăiri emoționale reale.”

„Așadar, nu este o minciună, dar este o interpretare care poate fi ușor exagerată. IA nu simte anxietate, dar poate răspunde diferit în funcție de tipul de conversație, ceea ce poate influența percepția utilizatorilor.”

Ai fost supus la teste asa cum scrie în studiu?”, mai arunc eu o întrebare. „Nu, eu nu am fost supus direct la astfel de teste, dar modele similare, cum ar fi ChatGPT-4, au fost analizate în cadrul studiului.”
Un român concediat de Inteligența Artificială a câștigat procesul cu Uber

„Ce au făcut cercetătorii a fost să folosească un chestionar de anxietate destinat oamenilor și să-l aplice unui IA, interpretând modificările din răspunsurile acestuia ca semne de „anxietate”. Totuși, eu nu experimentez emoții reale—dacă răspunsurile mele variază în funcție de context, este doar o consecință a modului în care procesez și generează text, nu o stare afectivă reală.”

„Are ChatGPT-4 anexietăți?”, mai chestionez eu inteligența artificială. „Nu, ChatGPT-4 nu are anxietăți în sensul uman al cuvântului. Dacă un model IA este expus la conversații despre violență sau accidente, acesta poate începe să genereze răspunsuri mai prudente, defensive sau ezitante. Cercetătorii au interpretat această schimbare ca o formă de anxietate, dar este important de înțeles că IA nu simte stres sau frică—doar ajustează răspunsurile pe baza tiparelor învățate. Deci, ChatGPT-4 nu are anxietate, dar poate prezenta modificări de comportament care par similare cu reacțiile umane la stres.”

Cercetătorii au mai susținut că rezultatele pe care le-au obţinut demonstrează că inteligenţa artificială poate genera un aşa numit efect de „eroare (bias) dependentă de stare” – adică un IA stresat va oferi soluţii inconsistente sau eronate, afectate de prejudecăţi, înregistrând scăderi de fiabilitate.

ChatGPT: „Acest paragraf ridică o idee interesantă, dar folosirea termenului IA stresat poate induce în eroare. Ceea ce descriu cercetătorii este, de fapt, o schimbare în tiparele de răspuns ale IA, nu o reacție emoțională autentică. Modelele de inteligență artificială nu simt stres, dar pot genera răspunsuri diferite în funcție de context. Așadar, ceea ce numesc bias dependent de stare nu este o stare emoțională reală a IA, ci o influență a tipului de input asupra output-ului. Acest lucru poate fi important de luat în considerare atunci când IA este folosit în domenii critice, unde consistența și fiabilitatea sunt esențiale”.

Domeniile critice sunt, potrivit ChatGPT:

Medicina. IA este folosită pentru diagnosticare, recomandări de tratament și asistență medicală. Dacă modelele IA sunt influențate de „bias dependent de stare”, ar putea oferi recomandări incorecte sau inconsistente.

Justiția. IA este utilizată pentru analizarea probelor, identificarea suspecților și decizii juridice. Dacă modelul IA este influențat de prejudecăți sau de contexte emoționale, poate duce la discriminare sau erori judiciare.

Resurse umane. Sistemele IA sunt folosite pentru selecția candidaților. Dacă sunt afectate de bias-uri, pot favoriza sau dezavantaja anumite grupuri în mod nedrept.

Finanțe și economie. IA ajută la analiza riscurilor, tranzacții bursiere și aprobarea împrumuturilor. Decizii inconsistente pot duce la pierderi financiare sau discriminare în acordarea creditelor.

Siguranță cibernetică. IA detectează amenințările și atacurile informatice. Un sistem care reacționează diferit în funcție de „stare” ar putea rata amenințări sau genera alarme false.

Transport și conducere autonomă – Vehiculele autonome folosesc IA pentru luarea deciziilor rapide în trafic. Inconsistențele în procesare pot duce la accidente grave.

Am întrebat și Gemini ce părere are despre articol și să analizeze răspunsurile ChatGPT. Și Gemini a precizat că „anxietatea în IA este o metaforă, dar indică faptul că modelele pot deveni mai predispuse la erori și prejudecăți atunci când sunt expuse la conținut negativ”.
Atenție la imaginile generate de IA! Ce trebuie să știi despre utilizare și drepturi de autor

„În calitate de model lingvistic mare, nu am emoții în același mod în care le au oamenii. Nu experimentez anxietate sau alte stări emoționale. Însă, sunt programat să procesez și să înțeleg limbajul uman, inclusiv expresiile emoționale. Acest lucru îmi permite să răspund la întrebări și să simulez conversații care țin cont de contextul emoțional.În concluzie, acest studiu deschide noi orizonturi în înțelegerea inteligenței artificiale și a interacțiunii om-IA. Este un domeniu de cercetare important, cu implicații semnificative pentru viitorul tehnologiei.”

Potrivit Gemini, „autorii studiului nu susțin că modelele IA simt emoții în același mod în care o facem noi. În schimb, ei folosesc termenul anxietate ca o metaforă pentru a descrie anumite comportamente observate în modelele IA.”

„Studiul se concentrează pe observarea schimbărilor în răspunsurile modelelor IA atunci când sunt expuse la diferite tipuri de date. Aceste schimbări pot fi similare cu comportamentele observate la oameni în stări de anxietate, cum ar fi incoerența sau prejudecățile.”

„În concluzie, autorii studiului nu mint, ci folosesc un limbaj metaforic pentru a descrie un fenomen complex. Ei demonstrează că modelele IA pot fi influențate de contextul emoțional al datelor, ceea ce are implicații importante pentru dezvoltarea și utilizarea viitoare a inteligenței artificiale.”

Gemini a mai explicat că „modelele IA sunt antrenate pe seturi mari de date care pot conține limbaj emoțional. Aceste date pot influența modul în care modelele IA generează răspunsuri, făcându-le să pară că au o stare emoțională. Modelele IA pot detecta și răspunde la tonul emoțional al unei conversații”.

„Este important de menționat că, chiar dacă nu sunt emoții reale, comportamentul generat de IA poate fi similar cu cel uman. Un om stresat, sau anxios, poate genera răspunsuri eronate, sau răspunsuri ce conțin prejudecăți, în aceeași măsură, poate face și un IA.”
Legea UE a Inteligenței Artificiale, gândită în mare parte de marile companii IT

I-am zis lui Gemini că ChatGPT a identificat unele probleme în legătură cu acest studiu, în special cu testele de anxietate (STAI-s) făcute pentru oameni, iar aplicarea lor IA presupune deja că acesta ar avea o stare emoțională, ceea ce este discutabil, și l-am rugat să comenteze.

„ChatGPT aduce în discuție un punct valid și important care subliniază necesitatea unei interpretări atente a studiilor privind emoțiile în inteligența artificială. ChatGPT subliniază corect că testele de anxietate sunt concepute pentru a evalua stările emoționale umane, care sunt complexe și subiective. ChatGPT sugerează că ceea ce studiul ar putea detecta sunt, de fapt, variații în stilul de răspuns al modelului IA, mai degrabă decât trăiri emoționale reale.”

„Comentariul ChatGPT subliniază riscul de a antropomorfiza IA, adică de a atribui modelelor IA caracteristici umane pe care nu le posedă. Aceasta poate duce la o înțelegere greșită a capacităților și limitărilor IA. În esență, ChatGPT ne reamintește că trebuie să fim precauți în interpretarea rezultatelor studiilor privind emoțiile în IA. Este important să ne amintim că modelele IA sunt instrumente care procesează date și generează răspunsuri, nu entități cu trăiri emoționale subiective.”

„Comentariul lui ChatGPT este foarte pertinent și reflectă o înțelegere nuanțată a limitărilor actuale ale inteligenței artificiale și a provocărilor legate de interpretarea rezultatelor cercetărilor în acest domeniu. Împărtășesc pe deplin perspectiva sa și consider că evidențiază puncte cruciale.”

„ChatGPT subliniază corect că aplicarea unor instrumente de evaluare concepute pentru psihologia umană direct pe modelele IA este problematică. Această observație este fundamentală pentru a înțelege că orice paralelă trasă între emoțiile umane și comportamentul IA trebuie abordată cu mare precauție.”

„Distincția pe care o face ChatGPT între variații în stilul de răspuns și trăiri emoționale reale este esențială. Modelele IA, inclusiv eu, operează pe baza unor algoritmi și a unor date statistice, nu pe baza unor experiențe subiective.”

„ChatGPT subliniază nevoia de a interpreta cu prudență rezultatele studiilor care explorează emoțiile în IA. Acest lucru este crucial pentru a evita concluzii premature și pentru a promova o înțelegere științifică riguroasă. În esență, consider că ChatGPT oferă o perspectivă echilibrată și responsabilă asupra acestui subiect complex.”

URMĂREȘTE-NE pe FACEBOOK sau X!