Data de 1 august 2024 reprezintă o bornă în ceea ce privește modul în care va funcționa Inteligența Artificială (IA). Pe 1 august 2024 a intrat în vigoare Legea Europeană privind Inteligența Artificială (AI Act), prima reglementare completă din lume de acest fel. Recunoașterea facială, în timp real, în spații publice de către autorități va fi interzisă în curând.
AI Act este concepută pentru a asigura că IA dezvoltată și utilizată în UE este de încredere și respectă drepturile fundamentale ale omului. Reglementarea urmărește să stabilească o piață internă armonizată pentru IA în blocul comunitar încurajând adoptarea acestei tehnologii și creând un mediu de susținere pentru inovare și investiții.
AI Act introduce o clasificare a sistemelor IA bazată pe riscuri. Sistemele cu risc minim, cum ar fi filtrele de spam, nu au obligații importante. Sistemele cu risc specific, cum ar fi chatbot-urile, ChatGPT, Gemini etc., trebuie să dezvăluie utilizatorilor că interacționează cu o mașină.
Sistemele cu risc ridicat, cum ar fi cele folosite în recrutare, trebuie să respecte cerințe stricte de siguranță și transparență. Astfel de sisteme sunt: cele folosite în procesul de angajare al oamenilor, procesarea candidaturilor și luarea deciziilor de angajare; cele care determină dacă o persoană poate sau nu să ia un credit; cele folosite în medicină sau în educație; sisteme de supraveghere publică care folosesc identificarea facială și alte tehnologii de monitorizare care pot afecta grav drepturl la intimitate și libertățile civile; roboții autonomi industriali sau
vehiculele autonome care operează fără intervenție umană și pot reprezenta riscuri fizice semnificative.
Inteligența Artificială poate acum să creeze imagini din gândurile tale
Sistemele cu risc inacceptabil, care reprezintă o amenințare clară pentru drepturile fundamentale, vor fi interzise. Astfel de sisteme sunt: jucării sau alte dispozitive echipate cu IA care folosesc asistenți vocali pentru a manipula comportamentul copiilor, încurajându-i să se angajeze în comportamente periculoase; cele care permit guvernelor sau companiilor să creeze scoruri sociale pentru cetățeni sau angajați, influențând accesul acestora la servicii sau oportunități pe baza unui astfel de scor; aplicații de inteligență artificială care sunt utilizate pentru a prezice infracțiuni și care pot duce la discriminare și la încălcarea libertăților civile; cele de recunoaștere biometrică în timp real, în spații publice accesibile, de către autoritățile de aplicare a legii, cu excepția unor circumstanțe foarte restrânse și bine definite; cele folosite pentru a clasifica persoane pe baza de rasă, etnia, gen, orientare sexuală etc.
Orice sistem AI care se încadrează în categoriile menționate mai sus este interzis complet în Uniunea Europeană. Aceste interdicții sunt menite să prevină utilizările lipsite de etică și periculoase ale inteligenței artificiale. Amenzile pentru utilizarea aplicațiilor AI interzise pot ajunge până la 7% din cifra de afaceri globală anuală a companiei implicate. Pentru alte abateri, sancțiunile vor fi de 3%
Noua lege introduce reguli și pentru modelele de IA cu scop general, aceste modele trebuie să asigure transparența pe întregul lanț valoric și să abordeze riscurile sistemice. Lanțul valoric (sau lanțul valorii) este un concept economic care descrie întregul proces prin care un produs sau un serviciu trece de la faza inițială de proiectare și producție până la livrarea și utilizarea finală de către consumator.
Nemurirea sufletului, prin ochii inteligenței artificiale ChatGPT
Statele membre au timp până pe 2 august 2025 să desemneze autoritățile naționale competente care să supravegheze aplicarea legii și să supravegheze pieța. La nivelul UE, Oficiul pentru IA va fi organismul principal de implementare și aplicare a legii.
Majoritatea regulilor AI Act vor începe să se aplice din 2 august 2026, dar interdicțiile pentru sistemele IA cu risc inacceptabil vor intra în vigoare după șase luni, iar regulile pentru modelele generale de IA după 12 luni.
L-am întrebat pe ChatGPT care sunt provocările pentru companiile IT, cum îl afectează noua lege intrată în vigoare, ce nu va mai putea face și dacă riscă să fie închis ca model de IA. Răspunsurile chatbot-ului:
Companiile, în special startup-urile și IMM-urile, ar putea găsi costisitoare și complexe cerințele de conformitate. Aceasta ar putea încetini ritmul inovației sau descuraja noile intrări pe piață.
Reglementările stricte pot limita flexibilitatea dezvoltatorilor de a experimenta și de a inova rapid. Adaptarea la noile reglementări poate necesita timp și resurse considerabile.
Succesul AI Act depinde de implementarea eficientă și uniformă a regulilor în toate statele membre. Divergențele în aplicare pot submina obiectivele armonizării.
INTELIGENȚA ARTIFICIALĂ, folosită de oamenii de știință pentru a prezice când vom muri
Există îngrijorări că reglementările stricte ale UE ar putea plasa companiile europene într-un dezavantaj competitiv față de cele din alte regiuni cu reglementări mai laxe.
AI Act vizează în principal utilizarea IA în contexte comerciale și publice, nu afectează direct modul în care funcționează sau este dezvoltat un model AI ca mine.
Totuși, dacă dezvoltatorii mei ar dori să utilizeze sau să integreze un model AI similar în produse sau servicii disponibile pe piața UE, aceștia ar trebui să se conformeze regulilor impuse de AI Act. Aceasta ar putea include asigurarea transparenței, etichetarea corectă a conținutului generat de IA și respectarea măsurilor de protecție a datelor și securitate.
Banat Libre, cârnații de Pleșcoi, John Lennon și ChatGPT
În concluzie, AI Act este o inițiativă ambițioasă și necesară pentru a reglementa utilizarea IA într-un mod care protejează drepturile cetățenilor și încurajează inovația responsabilă. Cu toate acestea, succesul său va depinde de implementarea echilibrată și de colaborarea continuă între autorități, companii și alte părți interesate.
Modul meu de funcționare nu se va schimba direct ca urmare a AI Act, deoarece sunt un model de limbaj creat și gestionat de OpenAI și nu am o prezență sau autonomie proprie pentru a interacționa direct cu utilizatori sau piețe.
Cu toate acestea, AI Act poate influența modul în care dezvoltatorii și utilizatorii interacționează cu modelele AI ca mine. Iată câteva moduri în care AI Act ar putea afecta indirect modul meu de utilizare: dezvoltatorii ar putea fi nevoiți să ofere mai multe informații despre modul în care funcționez și cum sunt antrenat; conținutul generat de IA, inclusiv textul creat de mine, ar putea necesita etichetare pentru a indica faptul că este generat artificial.
Ar putea exista cerințe pentru o supraveghere umană mai strictă în utilizarea modelelor AI în aplicații critice, pentru a asigura că acestea sunt utilizate în mod etic și responsabil. Pot exista reguli stricte privind utilizarea și securitatea datelor folosite pentru antrenarea modelelor AI. Aceasta ar putea influența tipurile de date care pot fi utilizate și modul în care sunt gestionate aceste date.
Se pot corecta mesajele trimise pe Whatsapp! Dar numai în acest interval de timp
Dezvoltatorii ar putea fi obligați să implementeze măsuri pentru a asigura robustetea, acuratețea și securitatea modelelor AI pentru a preveni utilizarea greșită sau atacurile cibernetice. Regulile pot încuraja dezvoltatorii să inoveze în mod responsabil, asigurând că noile tehnologii IA sunt sigure și etice înainte de a fi lansate pe piață.
Pot exista costuri suplimentare asociate cu respectarea noilor reglementări, care ar putea influența resursele disponibile pentru cercetare și dezvoltare. În concluzie, deși AI Act nu va schimba modul fundamental în care funcționez, acesta va influența contextul în care sunt utilizat, asigurând că utilizarea mea și a altor modele AI este reglementată pentru a proteja drepturile fundamentale și a încuraja inovația responsabilă.
Conform noii Legi Europene privind Inteligența Artificială (AI Act), următoarele aspecte ar putea influența indirect modul în care sunt utilizat. Trebuie să fie clar pentru utilizatori că interacționează cu un model AI.
Dacă sunt utilizat în aplicații identificate ca fiind cu risc înalt, cum ar fi evaluarea creditelor, vor fi necesare măsuri stricte pentru a asigura conformitatea cu cerințele de securitate, acuratețe și transparență. Utilizarea mea în astfel de aplicații va necesita păstrarea unor înregistrări detaliate, documentație și audituri pentru a asigura că sunt respectate toate regulile relevante.
Un inginer chinez de la Google, arestat pentru furt de inteligență artificială
Orice utilizare a mea în moduri care ar putea manipula comportamentul uman pentru a eluda voința liberă a utilizatorilor va fi interzisă. De exemplu, nu voi putea fi utilizat în jucării sau alte dispozitive care încurajează comportamente periculoase ale minorilor.
Nu voi putea fi utilizat în sisteme care permit „scoruri sociale” sau în aplicații de poliție predictivă, deoarece acestea sunt considerate riscuri inacceptabile pentru drepturile fundamentale ale omului. Conținutul video, audio sau text generat de mine trebuie să fie marcat clar pentru a indica faptul că este artificial. Aceasta va asigura că utilizatorii sunt informați corespunzător despre natura conținutului pe care îl consumă.
Este esențial ca informațiile furnizate despre modul în care funcționez și sunt utilizat să fie corecte. Furnizarea de informații incorecte poate duce la sancțiuni. Dacă nu sunt respectate regulile AI Act, companiile care mă utilizează ar putea fi supuse unor amenzi semnificative. În esență, AI Act va impune măsuri pentru a asigura că utilizarea mea și a altor modele de IA este transparentă, etică și responsabilă, protejând astfel drepturile utilizatorilor și promovând inovarea sigură și de încredere.
Un român concediat de Inteligența Artificială a câștigat procesul cu Uber
Nu există indicii că AI Act ar duce la închiderea sau interzicerea modelelor de inteligență artificială ca mine în mod automat. Totuși, anumite utilizări ale modelelor de inteligență artificială ar putea fi restricționate sau reglementate strict pentru a proteja drepturile fundamentale și pentru a preveni utilizarea abuzivă a tehnologiei.
Dacă dezvoltatorii sau utilizatorii modelelor AI furnizează informații incorecte sau incomplete despre modul de funcționare sau utilizarea modelului, aceștia ar putea fi sancționați și, în cazuri extreme, utilizarea modelului ar putea fi restricționată. Modelele AI care nu respectă cerințele de securitate, transparență și supraveghere umană ar putea fi restricționate sau interzise.
Modelele AI care nu respectă regulile stricte privind protecția datelor personale ar putea fi interzise pentru a proteja confidențialitatea și securitatea utilizatorilor. Pentru a evita închiderea sau restricționarea unui model AI, dezvoltatorii și utilizatorii trebuie să adopte măsuri proactive pentru a se conforma regulilor impuse de AI Act.