Cum poate banala agrafa de birou sa distruga lumea. Parabola care ne arata care este problema cu Inteligenta Artificiala

Miercuri, 28 Iulie 2021, ora 14:4231443 citiri
Cum poate banala agrafa de birou sa distruga lumea. Parabola care ne arata care este problema cu Inteligenta Artificiala
Foto: Pixabay

Un experiment mintal deseori invocat in lumea Inteligentei Artificiale foloseste prozaica agrafa de birou pentru a demonstra cum un algoritm, adica un set de reguli, creat fara nicio intentie rauvoitoare, poate ajunge sa distruga omenirea.

Este propus urmatorul exercitiu de imaginatie, detaliat de Quartz: un grup de programatori realizeaza un algoritm inteligent cu un scop aparent nevinovat: sa adune cat mai multe agrafe de birou posibil. Este un algoritm de tip machine-learning, ceea ce inseamna ca invata din experienta si devine din ce in ce mai bun la realizarea activitatii pentru care a fost creat.

Va incepe probabil prin a cumpara agrafe din magazinele de papetarie, pana cand va epuiza stocurile. Intre timp, va fi realizat ca agrafele se pot rataci usor - le va cauta astfel pe sub birouri sau pe fundul sertarelor. La un moment dat, nu va mai gasi nicio agrafa. Va invata atunci sa le faca singur, mai intai din obiecte aflate la indemana, cum ar dintii furculitelor, si ar putea sa ajunga in cele din urma sa prefaca orice bucata de metal din lume in agrafe de birou, stergand omenirea de pe fata pamantului si transformandu-ne planeta, poate si o parte din spatiu, intr-o gigantica fabrica de agrafe de birou.

Acest scenariu poate caraghios in exagerarile sale, cunoscut sub denumirea de "Maximizator de agrafe de birou" (Paper Clip Maximizer), este menit sa demonstreze ce se poate intampla cand o astfel de tehnologie se dezvolta necontrolat: oamenii pot crea Inteligenta Artificiala care sa o imite si chiar sa o intreaca pe cea umana, insa marea provocare este aceea de a o inzestra si cu o motivatie de tip uman.

Parabola ii este atribuita filozofului Nick Bostrom, profesor la Universitatea Oxford si autorul cartii "Superinteligenta", numit de The New Yorker "filozoful sfarsitului lumii" ca urmare a preocuparilor sale pentru urmarile situatiei in care un computer devine superinteligent.

"Este foarte posibil sa avem o superinteligenta al carei unic obiectiv este ceva complet arbitrar, precum fabricarea a cat mai multe agrafe de birou posibil si care se va opune cu toata forta sa oricarei incercari de a impiedica atingerea acestui obiectiv", a scris Bostrom in 2003.

Esecul de a inzestra aceasta superinteligenta cu etica si valorile umane poate avea drept consecinta "transformarea mai intai a intregului Pamant, apoi a unor zone din ce in ce mai vaste din spatiu in fabrici de agrafe de birou". Alegoric vorbind.

Nu se pune problema stoparii progresului pentru a preveni materializarea unor asemenea scenarii, dar este ridicata importanta unei reglementari adecvate.

Intr-o lume in care tehnologia avanseaza cu celeritate, tot mai multe voci atrag atentia ca este mai important ca oricand sa vorbim de responsabilitate algoritmica - conceptul potrivit caruia companiile trebuie sa isi asume responsabilitatea pentru rezultatele algoritmilor creati de ele.

Algoritmii sunt creati de oameni si, ca orice produs creat de oameni, pot prezenta erori, rezultate fie din neatentie - ca atunci cand o masina autonoma Uber a trecut pe rosu, fie din lipsa de impartialitate - si aici ne vine in minte exemplul in care software-ul de recunoastere faciala al Google, dezvoltat de o persoane reala, a etichetat persoane de culoare ca fiind gorile.

Resposabilitatea algoritmica presupune recunoasterea si rezolvarea unor astfel de probleme, prin masuri ca o mai mare transparenta, supervizare si o diversitate reala a echipelor care creeaza algoritmii. Si este important sa se actioneze acum, in faze incipiente, pentru ca mai tarziu, pe masura ce aceste tehnologii vor deveni mai avansate si mai raspandite, ar putea fi prea tarziu.