In loc sa existe o exigenta jurnalistica in privinta stirilor false (fake news) se creeaza organizatii care sa preia supravegherea stirilor false editate de robotii dotati cu Inteligenta Artificiala (IA). In cazul in care scandalul explodeaza, sa poata aparea scuza penibila a responsabililor de presa, „nu noi, ci robotii nesupravegheati”!
Nebunia stirilor false a explodat in momentul in care au fost date in vileag de catre actualul presedinte al SUA, incepand din anul 2016. Pana atunci nimeni nu le pomenea, ele existau strecurate intre stirile reale si toata lumea dormea linistita.
Din 2016, dezvaluirile au declansat dezbateri ample si reactii chiar daca la inceput mai timide, ajungandu-se la concluzia ca e nevoie de reglementari.
In mod normal, rezolvarea ar fi urmat sa vina de la ziaristii care trebuiau responsabilizati si, mai ales dezvatati de naravul de a fi angajati intr-o tabara politica sau alta (in SUA sunt doua) si a produce stiri partinitoare, de cele mai multe ori false.
Numai ca a aparut o problema noua: robotii cu IA care pot redacta stiri in mod automat si autonom, adica fara interventia omului. Astfel s-a putut spune ca acestia, robotii inteligenti, sunt cei care redacteaza stirile false.
Totusi, nu trebuie scapat din vedere ca robotii „mincinosi” sunt proiectati de oameni tocmai pentru a fi nu doar mincinosi ci si convingatori!
Noua organizatie infiintata la San Francisco (SUA), care se numeste OpenAI (Inteligenta Artificiala Deschisa) si este fondata de boss-ul companiei Tesla, Elon Musk si Sam Altmana, a pus la punct un sistem artificial de redactare a stirilor convingatoare. Intr-o declaratie recenta, organizatia se arata insa ingrijorata de modul in care codul pus la punct de ei, botezat GPT-2, „ar putea fi utilizat in mod abuziv pentru productia pe scara larga a stirilor false convingatoare”!
Echipa care lucreaza la acest proiect „a dezvoltat o modalitate prin care IA poate continua sa redacteze in mod independent articole utilizand un set de date cuprinzand opt milioane de pagini web plecand de la doar cateva linii de text scrise de om”, transmite Agerpres.
E rezolvata problema stirilor false convingatoare scrise de roboti? Nici pe departe, dar suna incurajator.
Pentru ca, desi rezolva niste situatii impuse de noile tehnologii, sistemul robotizat poate fi utilizat in „scopuri malitioase”, dupa cum se exprima eufemistic OpenAI. Cercetatorii au citat printre miile de stiri false redactate de roboti, cazul stirii extrem de convingatoare potrivit careia „reciclarea este nociva pentru planeta”.
Lumea imaginilor video falsificate
O situatie identica este valabila si in cazul imaginilor (fotografice sau video) si a sunetului. Ce este adevarat, nu mai poate fi distins de ceea ce este fals. Aceasta este lumea in care traim de vreo doua decenii, de cand a abandonat analogicul in schimbul digitalului (lumii virtuale, artificiale). {i apoi, „costurile generarii de continut fals si a campaniilor de dezinformare” se reduc pe zi ce trece. Sau cum spune OpenAI „asa cum fenomenul deepfake necesita mai mult scepticism in privinta imaginilor, publicul larg va trebui sa devina mai sceptic in privinta textului gasit online”, a notat OpenAI.
Dar cum pot deveni oamenii sceptici in fata asaltului de stiri false cand ele sunt aproape imposibil de detectat si discernamantul s-a atrofiat? Asta intr-o lume cotropita de stiri false si foarte putin de adevar. Pentru ca minciuna subjuga mentalul in vreme ce adevarul e complet neinteresant, sau cum spun jurnalistii exersati in manipulare, „adevarul nu vinde ziarul”.
Lumea post-factuala
{i mai grav este atunci cand imaginea falsa este convingatoare. {i pentru asta tot robotii inteligenti au in zilele noastre un cuvant din ce in ce mai greu. Pentru ca o imagine (video sau fotografica) falsa, cu greu mai poate fi scoasa din capul cuiva. Cum sa convingi pe cineva care „a vazut la televizor” sau „pe internet” de neadevarul unei stiri false?
Cercetatorii de la Universitatea Carnegie Mellon din SUA „au demostrat printr-un exercitiu convingator cum o tehnica legata de aceeasi IA, numita FakeApp face posibila transformarea automata a unui clip video real, intr-unul fals.
Astfel, este posibila modificarea unor discursuri reale ale unui politician intr-unele total false, continand cuvinte pe care persoana nu le-a rostit niciodata! Manipularea functioneaza si in cazul unor persoane plasate in situatii compromitatoare, intr-un context sexual, de pilda, care n-a existat niciodata, doar pentru a fi compromise. {i programul Face2Face poate face o persoana sa apara in timp real, prin intermediul unei camere web, rostind fraze inventate, complet false.
Atunci cand jurnalismul foloseste „imaginile false (deepfake) acest lucru devine o problema uriasa, generand „manipulare prin confuzie sau crearea de stari emotionale induse”, transformandu-se intr-un atentat la integritatea persoanelor. Cu atat mai mult deepfake-urile vor deveni periculoase, cu cat in viitorul apropiat avansul tehnologic va face aproape imposibila diferentierea intre ceea ce este real/adevarat si ceea ce este absolut fals. Albul poate deveni negru si invers, in orice moment si in direct!
Asta este societatea in care traim, si care din 2016 are o noua eticheta: „societate post-factuala” sau „era post-adevar”. Scriam in 2016 ca termenul a fost inclus in dictionarul britanic Oxford, insemnand „imprejurarile in care faptele obiective au mai putina influenta in modelarea opiniei publice decat apelul la emotie si la opiniile personale”.
Falsul, emotia dirijata fraudulos, toate au o influenta mai mare decat adevarul intr-o societate care este condusa tocmai in aceasta directie, cu beneficii foarte usor de ghicit.
Sau cum spunea un cunoscut analist american, societatea post-adevar este o societate „in care opinia publica si media sunt aproape in intregime deconectate de la lege si adevar”.
Chiar si celui care ar incerca sa se informeze corect si sa discearna intre adevar si fals i-ar fi extrem de greu in incercarea lui, atata vreme cat informatiile false sunt propagate global prin mass-media, in vreme ce adevarul este ascuns sub mii de straturi de opinii aiuritoare si neadevaruri emise cu buna stiinta.
Sigur, exista cercetari care atrag atentia ca „dezvoltarea sistemelor IA poate conduce atat la crearea de stiri inselatoare, cat si la asumarea altor identitati in mediul online, la publicarea unor mesaje automate abuzive sau false in media de socializare, dar si la crearea automata de continut spam sau a mesajelor tip phishing”.
Dar solutiile reale se pare ca sunt greu de gasit.
{i apoi, „de ce le-am gasi, cand sunt atat de utile pentru cei care le propaga” si aduc rezultate atat de spectaculoase tocmai mizand pe ignoranta sau credulitatea consumatorilor de „stiri” de pe planeta.
Caci, pana la urma, nu ne mai place adevarul, adoram neadevarul frivol. Ignoram originalul adevarat, de dragul copiei fotografice, si aia falsificata (in photoshop).
Am abandonat indemnul lui Caragiale, rostit intr-una din schitele sale, in care un cetatean, vorbind despre iubita lui spunea „in poza nu e nimic, s-o vezi natur, monser”…
GEORGE CUSNARENCU
Comentarii