Puține subiecte beneficiază de mai multă atenție sau generează mai multă anxietate în Occident decât inteligența artificială. Oamenii sunt înspăimântați mai cu seamă de perspectiva apariției așa zisei inteligențe artificiale generale, AGI, un sistem ipotetic care depășește capacitățile umane și scapă de sub controlul uman.
Pentru unii, inteligența artificială generală semnifică sfârșitul acțiunii umane; pentru alții, este o cale către colapsul civilizației. Algoritmul scăpat de sub control, mintea-mașină care se auto-perfecționează și entitatea inteligentă care conspiră în taină pentru a-și depăși creatorii – iată doar câteva dintre ideile care au cucerit imaginația populară occidentală, în mare parte datorită filmelor de science-fiction din anii 80. Spre deosebire de ceea ce se întâmplă în Asia, unde multe dintre aceste tehnologii sunt considerate, de obicei, instrumente, infrastructuri sau factori de facilitare socială și nicidecum amenințări grave. Diferența de perspectivă vorbește de la sine despre dimensiunea culturală a tehnologiei în general și a inteligenței artificiale în special.
Până în prezent, nicio inteligență artificială nu a ieșit de sub controlul uman astfel încât să își poată stabili obiective și să le urmărească pe cont propriu. Presați să dovedească ceea ce spun, puțini alarmiști se referă la sisteme reale, majoritatea lor rezumându-se la predicții, analogii, experimente și afirmații filosofice.
Indicii culturale
Una dintre cele mai influente surse culturale ale temerilor occidentale moderne legate de o inteligență artificială generală scăpată de sub control este „WarGames”, un film din 1983. În acest film, un supercomputer, căruia i s-a acordat autoritate deplină asupra arsenalului nuclear american, confundă simularea unui adolescent cu realitatea și se îndreaptă calm spre un război termonuclear global, deoarece, în modelul său teoretic, „singura mișcare câștigătoare” este anihilarea reciprocă.
„WarGames” a cristalizat pentru o întreagă generație arhetipul unei mașini mult mai inteligente decât oamenii, căreia i s-a permis să aibă o putere periculoasă în lumea reală și care este dispusă să distrugă civilizația prin urmărirea literală programului său.
Și apoi, bineînțeles, există filmul esențial, apărut în 1984, Terminator, în care un sistem de apărare autonom, Skynet, „se trezește”, consideră oamenii o amenințare și pornește un război de exterminare. Intriga acțiunii prezenta publicului un șablon care între timp a devenit familiar: inteligența artificială devine conștientă, se revoltă împotriva creatorilor săi și întoarce mașinile împotriva umanității.
O mare parte din discuțiile de astăzi despre inteligența artificială generală sunt modelate mai mult de scenariile imaginative ale science fiction-ului și cyber fiction-ului decât de realitățile învățării automate moderne.
Aproape fiecare idee a narativelor apocaliptice privitoare la inteligența artificială generală – eficientizarea supraomenească, nealinierea obiectivelor, pierderea controlului uman și eforturile de ultim moment pentru a preveni dezastrul – poate fi regăsită, într-o formă timpurie, embrionară, în literatura și filmele științifico fantastice din acea perioadă.
Optimizarea și capacitatea de a aționa independent
Într-un fel, toate acestea s-au mai întâmplat. În 1997, când Deep Blue de la IBM, l-a învins pe campionul mondial de șah Garry Kasparov, jurnaliștii au descris anumite mutări ale lui Big Blue drept „creative”, sugerând chiar că computerul începuse să „înțeleagă” șahul.
Aproape 20 de ani mai târziu, când AlphaGo, jucând împotriva campionului mondial de Go, Lee Sedol, a făcut legendara sa „Mutare 37” , comentariile au fost similare. Experții în Go au numit-o extrem de neconvențională. „intuitivă” și chiar „frumoasă”.
Totuși, în ambele cazuri, surpriza nu a venit din intenție sau perspicacitate, ci din optimizare, în cadrul unui spațiu de căutare vast. Deep Blue și AlphaGo executau exact procedurile matematice pentru care fuseseră proiectate și nimic mai mult.
Realizările lor au fost uimitoare pentru oameni, dar numai deoarece oamenilor le este greu să înțeleagă amploarea și viteza calculelor implicate.
Modelele de frontieră de astăzi, cum ar fi o1- preview, de la OpenAI, Claude 3.5 de la Anthropic, și altele, par uneori să-și „înșele” evaluatorii, sau să ocolească constrângerile. Acestea sunt într-adevăr comportamente perturbatoare care merită investigate. Dar ele provin din aceeași dinamică de optimizare care a produs tacticile Deep Blue și inovațiile surprinzătoare ale AlphaGo: sisteme care găsesc strategii neașteptate, cu scoruri mari, în cadrul unei funcții obiectiv proiectate de ingineri umani. Astfel de comportamente sunt consecințe instrumentale ale unei strategii matematice și nicidecum semne ale intenției autonome.
Saltul de la „modelul a găsit o modalitate inteligentă de a maximiza recompensa” la „modelul își dorește putere”, repetă aceeași greșeală antropomorfică pe care am făcut-o cu motoarele de șah – doar că acum domeniul s-a extins dincolo de o tablă de joc, în lumea reală, făcând proiecția mai tentantă și erorile noastre mai grăitoare.
Saltul antropomorfic
Strategiile de optimizare nu sunt același lucru cu dorința și capacitatea de a acționa independent. Când cercetătorii spun că un model „caută puterea”, ei descriu o proprietate matematică a optimizării în condiții de structuri de recompensă imperfecte; nu atribuie voință sau intenție sistemului.
Cu alte cuvinte, un anumit comportament este util instrumental în obținerea unei recompense, dar nu este ales de un „sine” conștient și care are ”preferințe”.
Așa cum un algoritm genetic „descoperă” o structură fără să cunoască chimia, un model lingvistic „descoperă” o strategie înșelătoare, fără să își dorească nimic în sens uman. De fapt, saltul antropomorfic care alimentează narațiunile despre inteligența arificială generativă scăpate de sub control este un rezultat al confundării optimizării instrumentale cu capacitatea de a acționa independent.
Dacă ”deranjamentul” apărut este o consecință a obiectivelor de instruire, atunci acestea pot fi fi remediate prin preconizarea mai atentă a scopurilor, verificare și garanții instituționale – la fel ca în biosecuritate sau securitate nucleară.
Soluțiile sunt simple și centrate pe om: audituri obligatorii de siguranță, înfățișarea deschisă a calculelor deîndată ce instruirea depășește un anumit prag și răspundere legală reală pentru companiile care creează și lansează modelele.
Proiecții mentale asupra mașinilor
Sisteme precum Deep Blue și Claude 3.5 sunt adesea interpretate greșit, printr-o lentilă care proiectează comportamentul uman asupra mașinilor, ca și cum o reacție surprinzătoare a acestora din urmă ar implică intenție sau dorință.
De fapt, ele demonstrează exact opusul: anume faptul că un comportament aparent „inteligent” poate apărea în urma optimizării matematice, în lipsa scopurilor, sentimentelor sau a unei voințe subiacente.
Imprevizibilitatea nu înseamnă autonomie, surprinzătorul nu este totuna cu intenționalul, după cum o strategie emergentă nu este totuna cu o acțiune personală.
O mare parte din narațiunile despre inteligența artificială generală se bazează pe această eroare antropomorfică: credința că există o singură scară a inteligenței, inteligența umană fiind aproape de vârf, și că mașinile urcă pe această scară, încercând să ne ajungă din urmă.
Dar inteligențele nu sunt singulare; sunt plurale. Plantele, animalele, sistemele sociale, piețele și chiar sistemele politice posedă forme de inteligență ușor de înțeles în termenii lor.
Filosofia clasică chineză a recunoscut devreme această pluralitate: zhi (inteligență/înțelepciune/cunoaștere) este situațional, relațional și contextual, și nu o proprietate abstractă decorporată.
În mod similar, cosmologia indiană a tratat cunoașterea ca fiind multistratificată (jnana, buddhi, manas), integrată într-un flux cosmologic mai larg.
În schimb, o mare parte a tradiției filosofice occidentale, de la Descartes încoace, concepe inteligența ca o proprietate internă, abstractă, a unei minți individuale.
Proiectarea acestei scheme asupra sistemelor artificiale produce o serie de presupuneri: inteligența implică capacitatea de a-și propune obiective, ceea ce implică acțiune, acțiunea implică voință, iar voința, la rândul ei, implică posibilitatea dominației.
Această progresie conceptuală reflectă mai degrabă o anumită moștenire metafizică, decât realitate tehnologică.
Ideea că o mașină s-ar putea „trezi” spontan, urmându-și propriile scopuri nu este o descoperire empirică, ci rezultă din proiectarea unei viziuni occidentale specifice a minții și a individului asupra unor mecanisme de calcul care nu posedă asemena calități.
Care este adevăratul pericol
Dezbaterea privind inteligența artificială generală nu este deloc lipsită de ironie. Astăzi, principalele daune atribuite de obicei inteligenței artificiale își au originea în oameni și nu în capacitatea de autonomie a mașinilor.
Știm deja cine proiectează, implementează și obține profituri din publicitatea politică direcționată, de la extragerea datelor, la manipularea platformelor, la armele autonome, oferind în schimb condiții de muncă chinuitoare. Pericolul constă în puterea umană și nu în mașinile care își plănuiesc în secret autonomia.
Totuși, această problemă reală, observabilă, primește mult mai puțină atenție decât scenariile speculative despre sistemele superinteligente care își dezvoltă propriile intenții. De ce? Pentru că, din punct de vedere psihologic și politic, este mai ușor să te temi de o mașină autonomă imaginară, decât să te confrunți cu instituțiile umane.
Astfel încât atenția și resursele sunt deviate de la aceste probleme foarte reale – guvernanța datelor, dreptul muncii, responsabilitatea algoritmică – către un viitor ipotetic și, chiar mai mult decât atât, acest lucru permite o concentrare suplimentară a puterii.
Odată ce ne imaginăm inteligența artificială ca pe ceva care ar putea scăpa de sub controlul nostru, apare și sugestia că doar câteva corporații mari sau state puternice pot fi suficient de sigure și de încredere pentru a o stăpâni. Or, urmarea acestui fapt nu ar fi protecția, ci o centralizare și mai profundă.
O abordare mai fundamentată începe cu ceea ce putem observa efectiv. Riscurile legate de inteligența artificială cu care ne confruntăm sunt umane, instituționale și economice.
Inteligența artificială nu este un zeu nou-născut, ci un instrument, puternic încorporat în structurile sociale. Modul în care alegem să guvernăm aceste structuri – și nu ceea ce „vrea” mașina – va determina impactul său viitor.
Adevărata protecție împotriva riscului inteligenței artificiale nu este pregătirea pentru o superinteligență mitică, ci constrângerea sistemelor umane care implementează deja tehnologia. Reglementarea stimulentelor corporative, securizarea drepturilor privind datele și construirea unor mecanisme de audit transparente fac infinit mai mult pentru siguranța globală decât dezbaterea despre algoritmi conștienți și autonomi.
Jan Krikke este fost corespondent în Japonia pentru diverse publicații, fost redactor-șef al revistei Asia 2000 din Hong Kong și autorul cărții An East-West Trilogy on Consciousness, Computing, and Cosmology (2025).
Traducerea și adaptarea: Nedeea Burcă
Sursa: aici

