Inteligenta Artificiala (IA) tare, superinteligenta, chiar daca ar deveni autonoma, scapata de sub controlul uman care a creat-o, nu va ajunge sa manifeste emotii umane si nu ar exista niciun motiv sa credem ca ea ar deveni, in mod intentionat, benefica sau malefica. In studiul pomenit in saptamana trecuta, se vorbeste despre doua scenarii care descriu modul in care IA tare ar putea deveni o amenintare pentru omenire.
Fie un sistem IA tare este programat sa faca ceva cu impact devastator. „Armele autonome, spre exemplu, se bazeaza pe sisteme IA programate sa ucida. In mainile unei persoane rau intentionate, astfel de arme pot provoca distrugeri in masa. Mai mult decat atat, o cursa a inarmarii cu arme inteligente poate duce la un razboi intre sisteme IA ce ar face numeroase victime umane. Pentru a evita escaladarea unui conflict si pentru a accentua functia de „descurajare” a unui astfel de arsenal inteligent, aceste arme ar fi, prin design, dificil de declansat, dar chiar si asa oamenii ar putea sa piarda controlul asupra lor. Acest risc este prezent chiar si in cazul armelor echipate cu IA slaba. In cazul unei IA tare, superinteligenta, autonome, riscul creste exponential.
Fie un sistem IA este programat sa faca ceva benefic, dar isi dezvolta singur o metoda destructiva de a atinge respectivul obiectiv. „Acest lucru se poate intampla daca nu reusim sa aliniem perfect obiectivele programate in IA propriilor obiective, ceea ce devine cu atat mai greu cu cat sistemul de inteligenta artificiala este mai performant. Cam cum a actionat HAL9000 in 2001: Odiseea spatiala.
Un astfel de sistem IA ar fi capabil sa-si atinga obiectivele, insa daca aceste obiective nu sunt perfect aliniate cu binele omenirii, atunci vom avea cu adevarat o problema.
O intrebare tulburatoare ar putea suna asa: „Ce se intampla daca un sistem IA superinteligent, insarcinat sa rezolve problema incalzirii globale ar ajunge la concluzia ca salvarea planetei ar fi realizata tocmai prin distrugerea omenirii (cea care practic este raspunzatoare de distrugerea planetei)?
Avem un exemplu: oamenii nu urasc in mod deosebit furnicile, insa daca trebuie construit un drum, spre exemplu, atunci distrugerea catorva musuroaie de furnici care ar sta in calea constructiei nu ar fi o problema pentru constructori.
In consecinta, oamenii de stiinta ar trebuie sa se asigure ca, din perspectiva unui sistem IA tare, oamenii nu vor lua niciodata locul furnicilor in fata unor constructori superinteligenti.
Un interes brusc
Interesul oarecum brusc pentru pericolele sistemelor IA superinteligente isi are o explicatie plauzibila. Dar sa nu uitam ca si la momentul realizarii primei bombe nucleare americane, in ciuda faptului ca au fost unii fizicieni cunoscuti ai vremii care s-au aratat ingrijorati de perspectivele unei curse a inarmarilor scapate de sub control, bomba a fost realizata in laboratorul din Los Alamos de aceiasi cunoscuti fizicieni si a fost folosita impotriva Japoniei!
Acum, mai multe personalitati ale lumii stiintifice si-au aratat ingrijorarea cu privire la riscurile reprezentate de sistemele IA superinteligente. Stephen Hawking, Elon Musk, Steve Wozniak sau Bill Gates sunt doar cateva dintre aceste personalitati.
Multimiliardarul american Elon Musk, implicat printre altele in domeniile energiilor regenerabile nepoluante si al automobilelor electrice fara sofer, avertiza ca „dezvoltarea sistemelor IA ar putea duce la aparitia unui „dictator nemuritor”.
„Sa ne imaginam ca o retea de milioane de calculatoare interconectate de pretutindeni din lume ar crea un dictator digital care ar avea acces in orice moment la orice informatie existenta in bazele de date despre orice om din trecut sau prezent. Un astfel de sistem IA, capabil de milioane de calcule intr-o fractiune de secunda, va controla economia globala si sistemele militare cu un nivel de autonomie incredibil… Iar cel mai de temut atribut al unui astfel de sistem IA care ar ajunge sa conduca omenirea este ca nu va muri niciodata”, sustinea Elon Musk. Pentru Elon Musk, inca din 2014, inteligenta artificiala reprezinta „cea mai mare amenintare existentiala la adresa omenirii”, iar in 2015 s-a alaturat unui grup format din minti luminate care a solicitat ONU sa interzica dezvoltarea de roboti militari autonomi.
Stephen Hawking facea si el parte din acest grup de oameni de stiinta care si-au exprimat ingrijorarea cu privire la viitorul Inteligentei Artificiale. „Dezvoltarea unei inteligente artificiale complete ar putea insemna sfarsitul speciei umane”, declara el pentru BBC in decembrie 2014.
In general, se admite ca inteligenta umana poate tine sub control inteligenta artificiala pe care el o creeaza. Dar omenirea va putea sa pastreze controlul daca nu va mai fi cea mai inteligenta entitate de pe Pamant?
Si cateva intrebari fara raspuns
Stim ce este Inteligenta Artificiala, dar dincolo de asta, exista o sumedenie de intrebari, deocamdata fara raspuns. O prima intrebare este legata de cronologie: „cat de mult va dura pana cand masinile superinteligente vor depasi inteligenta umana?”. Unii zic ca in cateva decenii. Pozitivismul stiintific si tehnic s-a dovedit de multe ori prea optimist. „Unde sunt centralele atomice de fuziune nucleara care ar trebui sa ne ofere energie nelimitata si gratuita? Unde sunt automobilele zburatoare? Unde sunt calatoriile umane intergalactice?
Un optimism care friza ridicolul l-au manifestat si parintii inteligentei artificiale. Astfel, John McCarthy (cel care a propus termenul de inteligenta artificiala n.r.), Marvin Minsky, Nathaniel Rochester sau Claude Shannon erau convinsi ca IA „se va putea obtine in doar doua luni (!) de studiu si dezvoltare dedicata pe computerele din «epoca de piatra a informaticii», disponibile in 1956”!
Un alt mit popular este, de fapt, o replica la mitul prezentat mai sus: nu vom dispune de IA superinteligenta pana la sfarsitul acestui secol si ca, de fapt, nu-l vom avea niciodata pentru ca este practic imposibil de obtinut. Pe de alta parte, „frica vinde ziarele”! Asa poate fi citit titlul „Stephen Hawking avertizeaza ca dezvoltarea robotilor ar putea insemna un dezastru pentru omenire”. Presa este plina de astfel de titluri ale unor articole ilustrate cu imagini ale unor roboti rau-voitori, inarmati pana-n dinti, din filme precum seria Terminator. Pana la urma, „trebuie sa ne temem de revolta robotilor care vor dobandi, la un moment dat, constiinta si ar putea decide ca omenirea, categorie formata din fiinte cu viata si inteligenta finite, le sta in cale” este poate o simpla idee s.f. care „se vinde bine”.
Totusi, pana la „dictatorul digital nemuritor”, spatiul circumterestru este plin de mii de sateliti care oricand se pot transforma in arme de distrugere in masa, intr-un viitor razboi nimicitor, si nici un grup de „minti luminate” nu cere neutralizarea lor!
GEORGE CUSNARENCU
Comentarii