Aflu din ultimul numãr al excelentei reviste Discover (tiraj: 300000 de exemplare) cã un domn Tilden construieste roboti care nu sunt digitali, asadar nu functioneazã pe principii informatice – deci condusi de computere – ci prin tehnologii analogice, adicã electrice si mecanice, imitând retelele nervoase ale viului, ale bios-ului. De aici si denumirea lor: bioboti.
Aflu din ultimul numãr al excelentei reviste Discover (tiraj: 300000 de exemplare) cã un domn Tilden construieste roboti care nu sunt digitali, asadar nu functioneazã pe principii informatice – deci condusi de computere – ci prin tehnologii analogice, adicã electrice si mecanice, imitând retelele nervoase ale viului, ale bios-ului. De aici si denumirea lor: bioboti. Pe bioboti îi cheamã Ogre, Snakebot, Walkman, Strider si circulã pe suprafetele de experientã de la Los Alamos National Laboratory, din SUA, fiind, poate, strãmosii robotilor bio de mai târziu, ai androizilor pe care scriitorul de Science Fiction Isaac Asimov îi înarmeazã – si îi încorseteazã – cu legile aspre ale robopsihotronicii din viitor.
Rãsfoind, recent, printre notitele din carnete, dau peste o scrisoare trimisã, acum vreo 15 ani, de cãtre prietenul meu, regretatul Alexandru Boiu, de pe vremea când imaginam, împreunã, „Proiecte planetare”, o carte de succes a deceniului trecut. Era o scrisoare despre… legi. Si scot din ea, pentru dv, legile asimoviene pe care le copiase Sandu Boiu din celebra „Eu, robot” – dar pe care le completase, pentru comparatie, cu regulile pe care gânditorul si cercetãtorul român Mihai Drãgãnescu le imagineazã, în opera sa filozoficã, pentru sistemele de Inteligentã Artificialã, I.A., slujitorul si prietenul nostru din viitor.
Deci: „Legile Asimov”:
1) Robotul n-are voie sã pricinuiascã vreun rãu omului sau, prin neinterventia sa, sã lase ca viata omului sã fie periclitatã.
2) Robotul trebuie sã asculte ordinele primite din partea unei fiinte umane, cu conditia ca aceste ordine sã nu contrazicã prima regulã.
3) Robotul trebuie sã-si apere existenta, dar numai atunci când grija de sine nu contrazice Legea 1 sau Legea 2.
„Regulile lui Drãgãnescu:”
1) Un sistem cu I.A. nu va accepta sau formula o solutie unei probleme care ar putea periclita existenta speciei umane, azi sau în viitor, sau ar putea contrazice principiile civilizatiei.
2) Un sistem de I.A. nu are drepturi politice, nu poate vota si nu poate lua decizii fãrã o supraveghere umanã.
3) Un sistem cu I.A. trebuie sã-si respecte algoritmul de functionare.
Dar pentru cã rândurile de fatã apar cu putin înaintea sfârsitului de mileniu dati-mi voie sã vã spun cã, la trei decenii dupã elaborarea faimoaselor legi robotice si cu putin înainte de a pãrãsi lumea noastrã, Asimov a mai avut o zvâcnire – poate coplesit de violenta si haosul civilizatiei lui Homo sapiens – si a mai „promulgat” o ultimã lege, poate cea de sigurantã absolutã:
Legea O: Robotul trebuie sã apere umanitatea prin actiunile sale.
Fie…
…Desi, dacã este sã judecãm doar conflictul din Orientul Apropiat si sã-l extrapolãm la anii 2100, ne dãm seama cã el poate fi rezolvat, conform butadei lui Henry Kissinges, doar pe douã cãi: cea naturalã si cea supranaturalã. Cea naturalã ar fi, spunea Kissinger, ca din ceruri sã coboare un înger si sã-i împace pe evrei cu arabii din zonã. Cea supranaturalã: evreii si arabii sã se împace singuri… Sau, adaug eu, în context, ca I.A. si robotii de toate „etniile” si „rasele” sã intervinã ei în conflict, conform obligatiilor ce le incumbã Legile Asimov si Regulile Drãgãnescu.
Socul din muntii Anzi
Recenta retragere a ghetarilor din Anzi este un fenomen fara precedent în...
Comentarii