Cercetatorii au demonstrat modul in care inteligenta artificiala (AI) poate fi utilizata pentru redactarea stirilor false cu o contributie minima a oamenilor, relateaza vineri Press Association.
Organizatia OpenAI, printre ai carei sustinatori se numara Elon Musk si Microsoft, a decis sa nu publice in intregime codul de sistem, cunoscut drept GPT-2, din cauza ingrijorarilor legate de modul in care acesta ar putea fi utilizat in mod abuziv pentru productia pe scara larga a stirilor false convingatoare. In schimb, OpenAI a dat publicitatii o versiune restransa.
Echipa care lucreaza la acest proiect a dezvoltat o modalitate prin care AI poate continua sa redacteze in mod independent articole utilizand un set de date cuprinzand opt milioane de pagini web plecand de la doar cateva linii de text scrise de om.
Au fost utilizate in mod specific date obtinute prin accesarea unor link-uri cu trimitere externa de pe site-ul social de agregare de stiri Reddit, cu cel putin trei voturi - un indicator al calitatii si importantei.
Cateva exemple publicate de oamenii de stiinta demonstreaza modul in care afirmatiile false, precum cea potrivit careia reciclarea este nociva pentru planeta, sunt redactate de AI pe un ton autentic.
Acest tip de tehnologie AI prezinta beneficii, insa poate fi totodata utilizata in scopuri malitioase, atrage atentia OpenAI.
"Aceste concluzii, coroborate cu rezultate anterioare cu privire la imagistica sintetica, audio si video, implica faptul ca tehnologiile reduc costurile generarii de continut fals si a campaniilor de dezinformare", a explicat organizatia non-profit.
"Asa cum fenomenul 'deep fake' necesita mai mult scepticism in privinta imaginilor, publicul larg va trebui sa devina mai sceptic in privinta textului gasit online", a notat OpenAI.
Cercetatorii au atras atentia ca dezvoltarea sistemelor AI poate conduce atat la crearea de stiri inselatoare, cat si la asumarea altor identitati in mediul online, la publicarea unor mesaje automate abuzive sau false in media de socializare, dar si la crearea automata de continut spam sau a mesajelor tip phishing.
Grupul a notat ca sunt necesare cercetari suplimentare pentru conceperea unor "contramasuri tehnice si non-tehnice mai bune" impotriva "capabilitatilor ce nu pot fi inca anticipate ale acestor actori" si a indemnat totodata guvernele sa monitorizeze impactul unor astfel de tehnologii.