De ce robotul de chat al Microsoft a dezvoltat limbaj injurios pe Twitter si ce ne spune experimentul despre viitorul inteligentei artificiale

de Vlad Barza     HotNews.ro
Vineri, 25 martie 2016, 14:45 Economie | IT

Tay Tweets
Foto: Twitter
Domeniul inteligentei artificiale a avansat enorm in ultimii ani, insa progresele nu au acoperit toate categoriile, asa cum arata experimentul facut de Microsoft cu "robotul" de chat Tay care a invatat o multime de prostii si a folosit limbaj injurios, dupa ce a interactionat cu tinerii de pe Twitter mai putin de o zi. Robotul a fost conceput in scop educativ, insa a ajuns sa posteze mesaje cu continut sexual sau mesaje in care il lauda pe Hitler. De ce s-a intamplat asta puteti citi mai jos.

Tay Tweet este un chat-bot, un user virtual de Twitter pe care Microsoft l-a creat pentru a testa modul in care acesta intelege conversatiile cu tinerii si pentru a testa si ce va posta dupa ce va urmari ce-i scriu tinerii. Insa in mai putin de 24 de ore experimentul a fost oprit fiindca "robotul" a postat mesaje injurioase care au uimit multa lume.

De jumatate de secol sunt testate programe informatice conversationale care sa mimeze discutia cu un om, conceptul fiind unul pasionant. In ultimii ani eforturile s-au intetit, mai ales ca exista tot mai multi "asistenti vocali" care inteleg comenzi tot mai sofisticate.

Chat-bot-ul Microsoft a degenerat in limbaj deplorabil si fiindca cei care l-au creat nu au pus dinainte niste filtre si nu au prevazut ca in interactiunea cu tinerii, Tay va "invata" de la ei ce inseamna violenta verbala, fiindca pe Twitter se injura mult, iar mesajele rasiste sunt prezente din plin.

Un "blacklist" care sa includa cuvinte injurioase ar fi fost util si ar fi limitat numarul mesajelor jignitoare, spune un expert in inteligenta artificiala, citat de Business Insider. Acesta spune ca Microsoft ar fi trebuit sa pregateasca mai bine soft-ul fiindca era de asteptat ca tinerii de pe Twitter, exact publicul tinta pentru Tay, sa testeze ce poate chat-bot-ul, provocabdu-l sa raspunda la lucruri deloc frumoase.

Intreaga poveste arata ca orice program de inteligenta artificiala va trebui indelung testat in "lumea reala" unde interactiunile sunt neprevazute. Abia dupa aceea ar trebui folosit la lucruri serioase si utile.

Microsoft a dat dupa experiment un mesaj in care a explicat care a fost principala problema. "Din nefericire, in primele 24 de ore in care a fost online am constatat un efort coordonat din partea unor utilizatori care au dorit sa-l maltrateze pe Tay, astfel incat sa-si foloseasca abilitatile de comunicare pentru a raspunde intr-un mod impropriu".

Tay Tweet nu a putut deosebi cuvintele inofensive de cele jignitoare si nici conceptiile acceptate, de cele tabu, astfel ca in doar cateva ore si-a insusit limbajul violent din interactiuni si a postat mesaje care au ingrozit multe lume.

Relatand povestea, Financial Times noteaza ca experimentul a fost nereusit, insa extrem de util fiindca arata ca aceste soft-uri de inteligenta artificiala nu sunt atat de inteligente pe cat spun creatorii lor ca sunt. Pusi in fata interactiunii cu oamenii obisnuiti, algoritmii pot da replici spectaculoase, dar deloc potrivite.

In plus, oamenii, pusi in fata unor discutii cu un program de inteligenta artificiala, vor incerca din curiozitate sa il testeze la maxim si ii vor pune intrebari ciudate, rasiste, xenofobe, despre sex si despre orice iti poti inchipui. Programele trebuie "antrenate" sa faca fata cu brio acestor intrebari, nu sa "absoarba" totul ca un burete.


Citeste mai multe despre   











VIDEO Fiul unui primar din Suceava a luat 10 la romana, la evaluare nationala. Ce au aflat inspectorii cand s-au uitat pe lucrare

DNA verifica lucrarile de la Evaluarea Nationala intr-un oras din Suceava. Lucrarea de la romana, notata cu 10, a baiatului primarului este diferita ca scris fata de cea de la matematica.
8023 vizualizari
  • 0 (2 voturi)    
    Schimbati numele softului (Vineri, 25 martie 2016, 15:01)

    ProLibertate-AntiMerkel [utilizator]

    in VadimTweets.
    • 0 (0 voturi)    
      Lasa mortii in pace! (Luni, 28 martie 2016, 10:59)

      BEDE [utilizator] i-a raspuns lui ProLibertate-AntiMerkel

      Vadim a fost la vremea lui, cu nebuniile lui.
      Poate seamana mai curand cu Donald Trump: asta este acum pe cai mari... Si sunt multi prosti care il iau de bun.


Abonare la comentarii cu RSS

ESRI

Top 5 articole cele mai ...



Hotnews
Agenţii de ştiri

Siteul Hotnews.ro foloseste cookie-uri. Cookie-urile ne ajută să imbunatatim serviciile noastre. Mai multe detalii, aici.
hosted by
powered by
developed by
mobile version
Marţi