Tam Hunt și Roman Yampolskiy

Fiecare zi vine cu o nouă știre de senzație: încă o somitate științifică ne avertizează cu privire la graba și nechibzuința companiilor care creează forme din ce în ce mai avansate de inteligență artificială și despre marile pericole ale acestei tehnologii.

Împărtășim multe din îngrijorările unor mari personalități precum cercetătorii Al Geoffrey Hinton, Yoshua Bengio și Eliezer Yudkowsky, filozoful Nick Bostrom sau profesorul de științe cognitive Douglas Hofstadter, care au vorbit despre riscurile presupuse de lipsa de reglementare și control a inteligenței artificiale.

Odată ce aceasta va fi capabilă de autoîmbunătățire va deveni rapid mai inteligentă decât noi din aproape toate punctele de vedere, de o mie de ori, de un milion, apoi de un miliard de ori mai inteligentă. Ce înseamnă să fii de un miliard de ori mai inteligent decât o ființă umană? Ei bine, nu putem ști, exact în același fel în care o furnică nu are nici cea mai mică idee despre cum este să ai o minte precum aceea a lui Einstein. Într-un asemenea scenariu, cel mai bun lucru pe care l-am putea spera este ca inteligența artificială să facă abstracție totală de prezența noastră. A-ți imagina că omul poate controla o asemenea tehnologie superinteligentă este ca și cum ai crede că o furnică poate controla rezultatul unui meci de fotbal care se joacă în apropierea mușuroiului.

Oamenii nu pot anticipa intențiile unei entități mult mai inteligente

De ce credem asta? În matematică, știință și filosofie este util să clasificăm problemele în rezolvabile, parțial rezolvabile sau nedecidabile. Convingerea noastră este că, dacă dezvoltăm o inteligență artificială capabilă să își îmbunătățească propriile abilități (capacitate cunoscută sub numele de autoînbunătățire recursivă), nu va mai exista, de fapt, nicio soluție la problema controlului. Iar acest fapt este demonstrabil. Unul dintre noi (Roman Yampolskiy) a susținut acest lucru într-o lucrare recent publicată în Journal of Cyber Security and Mobility.

Controlul superinteligenței artificiale va necesita un set de abilități cum ar fi, de exemplu, capacitatea de a prezice ce alegeri va face, capacitatea de a explica aceste alegeri, și capacitatea de a verifica corectitudinea acestor explicații și predicții.

Sistemele actuale de inteligență artificială sunt, prin natura lor, o adevărată ”cutie neagră”: nu putem explica – nici noi, dar nici inteligența artificială însăși – de ce ia o anumită decizie, sau ajunge la un anumit rezultat. Nici nu putem prezice cu acuratețe și consecvență ce acțiuni specifice va întreprinde un sistem superinteligent pentru a-și atinge obiectivele finale, chiar dacă acestea ne sunt cunoscute. (Dacă am putea ști ce ar face o superinteligență pentru a-și atinge obiectivele, acest lucru ar necesita ca inteligența noastră să fie la nivel de egalitate cu aceea a ei.)

Deoarece nu putem explica modul în care ia decizii ”cutia neagră” a inteligenței artificiale[1], și nici să prezicem care vor fi acele decizii, nu suntem în măsură să ne verificăm propriile concluzii privitoare la ceea ce gândește sau intenționează să facă IA.

În general, devine din ce în ce mai evident că, așa cum putem avea doar o încredere probabilistică în demonstrațiile matematicienilor și în software-ul implementat de inginerii de calculatoare, capacitatea noastră de a explica, verifica și prezice comportamentul agenților IA este, în cel mai bun caz, limitată. Iar atunci când mizele sunt atât de incredibil de mari, nu este acceptabil să ne mulțumim doar cu niște certitudini probabilistice privitoare la aceste probleme de control și de aliniere.

Principiul precauției este o abordare de lungă durată a noilor tehnologii și metode, care necesită o dovadă pozitivă a siguranței înainte de integrarea lor în lumea reală. Până acum, companii precum Open AI și-au lansat instrumentele fără nicio condiție de stabilire a siguranței. Sarcina probei ar trebui să revină companiilor, care să arate că produsele lor de inteligență artificială sunt sigure.

Inteligența artificială care se autoîmbunătățește recursiv, pe care multe companii au început să o dezvolte deja, este cel mai periculos tip de inteligență artificială, deoarece poate duce la o explozie a informațiilor numită de unii ”singularitate”, un moment în timp dincolo de care orice previziuni devin imposibile, AI căpătând niște abilități colosale.

Oamenii nu vor putea anticipa intențiile unei entități mult mai inteligente decât ei, și nici modul în care își va îndeplini planurile. Teoretic, asemenea mașini superinteligente ar putea utiliza întreaga energie disponibilă pe planeta noastră, apoi în sistemul solar și, în cele din urmă, în întreaga galaxie, fără ca noi să putem ști impactul unor asemenea activități asupra bunăstării sau a supraviețuirii umane.

Putem avea încredere că o inteligență artificială omnipotentă va avea în vedere cele mai bune interese ale noastre? Și, încă, putem avea încredere că oamenii care vor utiliza următoarele generații de inteligență artificială vor avea în vedere cele mai bune interese ale umanității? Atunci când mizele dezvoltării inteligenței artificiale superinteligente sunt atât de extraordinare, înainte de a trece Rubiconul, avem nevoie de răspunsuri corecte la toate aceste întrebări.

Odată ce va deveni capabilă de autoîmbunătățire, Inteligența Artificială va deveni rapid mult mai inteligentă decît noi

Oameni de știință și inginerii încearcă să rezolve aceste preocupări existențiale. De exemplu, informaticianul Scott Aaronson a relatat recent că lucrează cu Open AI încercând să dezvolte modalități de implementare a unui fel de filigran în textul produs de marile modele lingvistice ale companiei, cum ar fi GPT-4, astfel încât oamenii să poată verifica sursa textului. Este pe departe prea puțin și, poate, prea târziu, dar este încurajator pentru noi faptul că un număr tot mai mare de oameni foarte inteligenți își îndreaptă atenția asupra acestor probleme.

Filosoful Toby Ord susține, în cartea sa, The Precipice: Existential Risk and the Future of Humanity că, în gândirea noastră etică și, în special, atunci când ne gândim la riscuri existențiale de tipul inteligenței artificiale, trebuie să luăm în considerare nu doar bunăstarea oamenilor de astăzi, ci și întreg viitorul nostru probabil, care, dacă ne jucăm cărțile corect, s-ar putea extinde pe miliarde sau chiar trilioane de ani. Așadar, riscurile care decurg din creațiile noastre IA trebuie luate în considerare nu numai în următoarele unu sau două decenii, ci pentru o perioadă mult mai lungă de timp. Or, aceasta ar fi o intreprindere de o anvergură mult mai mare decât încercarea de a le garanta siguranța doar pentru un deceniu sau două.

Cei care se arată sceptici față de asemenea argumente, sugerează adesea că putem programa pur și simpli AI sa fie binevoitoare și, dacă sau când devine superinteligentă, va fi nevoită să își urmeze programarea. Doar că aceștia ignoră capacitatea inteligenței artificiale superinteligente de a se reprograma sau de a convinge oamenii să o reprogrameze. De exemplu, în același mod în care oamenii încearcă să descopere modalități de a depăși propria noastră ”programare evolutivă – având în vedere întreaga umanitate, mai degrabă decât familia sau tribul nostru – AI va fi foarte probabil capabilă să găsească nenumărate modalități de a depăși orice limitări pe care am încerca să le i le punem.

Dar, oare, în cazul în care ne-am răzgândi, n-am putea să o scoatem, pur și simplu, din priză? Nu. IA va fi stocată pe cloud, în mai multe copii, așa că nu ar fi clar ce anume trebuie deconectat. În plus, o inteligență artificială superinteligentă ar anticipa toate scenariile de deconectare posibile, găsind modalități de contracarare a oricărei încercări de a-i întrerupe puterea, fie prin abilitatea sa de a-și îndeplini obiectivele în mod optim, fie îndeplinindu-și propriile obiective pe care le va dezvolta în timp, pe măsură ce va deveni tot mai inteligentă.

Unii gânditori, inclusiv tehnologi influenți și oameni de știință precum Yann LeCun (cel mai bun dezvoltator AI al META și câștigător al Premiului Turing), sunt de părere că ”inteligența artificială este intrinsec bună”, considerând că aceasta va genera, în aproape toate situațiile, rezultate mai bune pentru umanitate. Dar istoria propriei noastre specii și a altora de pe această planetă demonstrează că, ori de câte ori o entitate mult mai puternică întâlnește entități mai slabe, cei mai slabi sunt în general zdobiți sau subjugați. Călugărul budist Soryu Forall, care a meditat asupra riscurilor IA și a condus tabere de odihnă pentru antreprenori din domeniul tehnologiei, scria într-un articol publicat în The Atlantic că ”umanitatea a distrus viața pe aceeași curbă exponențială pe care a crescut nivelul de inteligență”.

Filosoful Nick Bostrom și alții au avertizat, de asemene, cu privire la ”scenariul întorsăturii perfide” în care inteligența artificială ar putea ”juca frumos”, ascunzând nivelul la care a ajuns, sau adevăratele sale intenții, până când va fi prea târziu – anume până în clipa în care s-ar putea elibera de toate măsurile de protecția ale oamenilor, așa cum s-a eliberat Gulliver din legăturile liliputanilor.

Pionierul inteligenței artificiale Hugo de Garis a avertizat, în cartea sa din 2005, The Artilect War, despre probabilitatea declanșării unui război mondial, evidențiată de toate dezbaterile privitoare la înțelepciunea indispensabilă travaliului de dezvoltare a inteligenței artificiale avansate – și a făcut acest lucru chiar înaintea apariției acesteia.

De asemenea, este aproape sigur că națiunile avansate vor apela, în războaiele lor viitoare, la arme IA și roboți controlați de IA. Unde se va termina această nouă cursă a înarmărilor? Desigur, orice persoanaă sănătoasă își dorește ca asemenea conflicte să nu apară, dar oamenii s-au luptat dintotdeauna, cu mult mai puțin de atât.

Într-adevăr, armata Statelor Unite, ca de altfel și armatele multor alte națiuni, dezvoltă deja arme avansate IA, cum ar fi dronele automatizate (un fel de ”arme autonome” letale). Dar, pe de altă parte, există și o puternică presiune în favoara limitării dezvoltării ulterioare a unor astfel de arme.

Inteligența artificială mai sigură este mai bună decât inteligența artificială nelimitată

Între timp, Open AI, grupul din spatele GPT-4, a anunțat recent o însemnată ”inițiativă de supraaliniere”[2]. Acesta este un efort important, care angajează cel puțin 20% din monumentalele resurse de calcul și puterea OpenAI, pentru a rezolva problema alinierii în următorii patru ani. Din păcate, știm deja, conform logicii descrise mai sus, că acest lucru nu este posibil. Nimic din anunțul OpenAI sau din literatura conexă nu abordează întrebarea pe care am pus-o mai sus. Este, oare, problema alinierii rezolvabilă în principiu? Noi am sugerat că nu este.

Dacă, în schimb, Open AI ar fi anunțat că încetează orice lucru la dezvoltarea unor mari limbaje noi, mai puternice, cum ar fi GPT5 și ar dedica 100% din puterea și resursele sale de calcul pentru rezolvarea problemei alinierii pentru inteligența artificială cu capacități limitate, am sprijini această mișcare. Dar, atâta timp cât dezvoltarea inteligenței generale artificiale (AGI) continuă, atât la Open AI cât și la alte zeci de alte companii, este aproape sigur că AGI va scăpa în curând de sub control.

Având în vedere toate acestea, cea mai bună IA la care putem spera este o IA mai sigură. Unul dintre noi (Tom Hunt) dezvoltă un model de ”imperative euristice filosofice” despre care speră că va orienta inteligența artificială spre rezultate mai bune pentru umanitate (Forall urmărește o idee similară în mod independent, la fel ca Elon Musk scopul noii sale aventuri, cu X, fiind acela ”de a înțelege universul”).

Pentru a realiza acest lucru ar trebui să impregnăm cel puțin unele sisteme AI cu o bunăvoință fundamentală și cu obiective care să pună accentul pe găsirea de răspunsuri la marile întrebări filosofice care, foarte probabil, nu vor fi niciodată lămurite definitiv, și să recunoaștem că umanitatea și celelalte forme de viață sunt în continuare neprețuite, ca parte a unui mister pentru totdeauna nedeslușit.

Chiar dacă această abordare ar putea funcționa, inculcând valori de conservare a vieții în unele sisteme IA, totuși nu există nicio modalitate de a evita ca mai târziu chiar și acestora să le fie anulate imperativele insuflate la început.

O inteligență artificială sigură este mai bună decât una neîngrădită dar, din punctul nostru de vedere, jocul cu aceasta rămâne până în cele din urmă o ruletă rusească, dar cu un glonț în aproape fiecare orificiu al încărcătorului.

Opțiunea cea mai înțeleaptă ar fi sa ne oprim și să facem o pauză, acum, luând în considerare consecințele felului în care proceăm cu IA. Nu e nicio grabă, miza este imensă și e imperativ necesar să procedăm cu prudență maximă.

Traducere și adaptare: Nedeea Burcă

Sursa: aici

Tam Hunt este avocat de politici publice și filosof, din Hawai.

Roman Yampolskiy este informatician la Universitatea din Loiusville, cunoscut pentru preocupările sale privitoare la siguranța inteligenței artificiale.

 

[1]Cutia neagră a IA este orice tip de inteligență artificială atât de complex încât procesul său de luare a deciziilor nu poate fi explicat într-un mod care poate fi înțeles de oameni. Cutia neagră a IA este opusul inteligenței artificiale explicabile (Explanaible Artificial Intelligence – XAI).

[2]Obiectivul de aliniere a AI propune orientarea sistemelor AI către obiectivele, preferințele și principiile etice ale oamenilor.