Domeniul inteligentei artificiale a avansat enorm in ultimii ani, insa progresele nu au acoperit toate categoriile, asa cum arata experimentul facut de Microsoft cu "robotul" de chat Tay care a invatat o multime de prostii si a folosit limbaj injurios, dupa ce a interactionat cu tinerii de pe Twitter mai putin de o zi. Robotul a fost conceput in scop educativ, insa a ajuns sa posteze mesaje cu continut sexual sau mesaje in care il lauda pe Hitler. De ce s-a intamplat asta puteti citi mai jos.

HotNews.roFoto: Hotnews

Tay Tweet este un chat-bot, un user virtual de Twitter pe care Microsoft l-a creat pentru a testa modul in care acesta intelege conversatiile cu tinerii si pentru a testa si ce va posta dupa ce va urmari ce-i scriu tinerii. Insa in mai putin de 24 de ore experimentul a fost oprit fiindca "robotul" a postat mesaje injurioase care au uimit multa lume.

De jumatate de secol sunt testate programe informatice conversationale care sa mimeze discutia cu un om, conceptul fiind unul pasionant. In ultimii ani eforturile s-au intetit, mai ales ca exista tot mai multi "asistenti vocali" care inteleg comenzi tot mai sofisticate.

Chat-bot-ul Microsoft a degenerat in limbaj deplorabil si fiindca cei care l-au creat nu au pus dinainte niste filtre si nu au prevazut ca in interactiunea cu tinerii, Tay va "invata" de la ei ce inseamna violenta verbala, fiindca pe Twitter se injura mult, iar mesajele rasiste sunt prezente din plin.

Un "blacklist" care sa includa cuvinte injurioase ar fi fost util si ar fi limitat numarul mesajelor jignitoare, spune un expert in inteligenta artificiala, citat de Business Insider. Acesta spune ca Microsoft ar fi trebuit sa pregateasca mai bine soft-ul fiindca era de asteptat ca tinerii de pe Twitter, exact publicul tinta pentru Tay, sa testeze ce poate chat-bot-ul, provocabdu-l sa raspunda la lucruri deloc frumoase.

Intreaga poveste arata ca orice program de inteligenta artificiala va trebui indelung testat in "lumea reala" unde interactiunile sunt neprevazute. Abia dupa aceea ar trebui folosit la lucruri serioase si utile.

Microsoft a dat dupa experiment un mesaj in care a explicat care a fost principala problema. "Din nefericire, in primele 24 de ore in care a fost online am constatat un efort coordonat din partea unor utilizatori care au dorit sa-l maltrateze pe Tay, astfel incat sa-si foloseasca abilitatile de comunicare pentru a raspunde intr-un mod impropriu".

Tay Tweet nu a putut deosebi cuvintele inofensive de cele jignitoare si nici conceptiile acceptate, de cele tabu, astfel ca in doar cateva ore si-a insusit limbajul violent din interactiuni si a postat mesaje care au ingrozit multe lume.

Relatand povestea, Financial Times noteaza ca experimentul a fost nereusit, insa extrem de util fiindca arata ca aceste soft-uri de inteligenta artificiala nu sunt atat de inteligente pe cat spun creatorii lor ca sunt. Pusi in fata interactiunii cu oamenii obisnuiti, algoritmii pot da replici spectaculoase, dar deloc potrivite.

In plus, oamenii, pusi in fata unor discutii cu un program de inteligenta artificiala, vor incerca din curiozitate sa il testeze la maxim si ii vor pune intrebari ciudate, rasiste, xenofobe, despre sex si despre orice iti poti inchipui. Programele trebuie "antrenate" sa faca fata cu brio acestor intrebari, nu sa "absoarba" totul ca un burete.