​Tay, robotul de chat testat de Microsoft acum cateva zile, a revenit miercuri pentru putin timp pe Twitter, nici aceasta a doua venire nefiind reusita, fiindca au abundat mesajele fara sens. Saptamana trecuta chat-bot-ul Tay a invatat o multime de prostii si a folosit limbaj injurios, dupa ce a interactionat cu tinerii de pe Twitter mai putin de o zi. Robotul a fost gandit ca un test important pentru viitorul inteligentei artificiale, insa experimentul a esuat, nefiind suficient pregatit.

HotNews.roFoto: Hotnews

Robotul Tay care saptamana trecuta dezvoltase tendinte rasiste si xenofobe, a revenit miercuri pe Twitter, trimitand insa multe mesaje fara sens.

"Esti prea rapid, te rog ia o pauza", suna unul dintre mesajele postate la nesfarsit, iar altele sunt mult mai dure: "Fumez canabis in fata politiei". Au fost cateva tweet-uri injurioase, iar altele sunau de genul: "Este din vina alcoolului". Tay a fost din nou oprit, compania admitand ca l-a reactivat prea devreme.

"Tay ramane offline cat timp efectuam modificari. Ca parte a testelor a fost, in mod necugetat, activata pe Twitter pentru o scurta perioada de timp", spune compania.

Tay Tweet este un chat-bot, un user virtual de Twitter pe care Microsoft l-a creat pentru a testa modul in care acesta intelege conversatiile cu tinerii si pentru a testa si ce va posta dupa ce va urmari ce-i scriu tinerii.

Chat-bot-ul Microsoft a degenerat in limbaj deplorabil si fiindca cei care l-au creat nu au pus dinainte niste filtre si nu au prevazut ca in interactiunea cu tinerii, Tay va "invata" de la ei ce inseamna violenta verbala, fiindca pe Twitter se injura mult, iar mesajele rasiste sunt prezente din plin.

Intreaga poveste arata ca orice program de inteligenta artificiala va trebui indelung testat in "lumea reala" unde interactiunile sunt neprevazute. Abia dupa aceea ar trebui folosit la lucruri serioase si utile.