De ce robotul de chat al Microsoft a dezvoltat limbaj injurios pe Twitter si ce ne spune experimentul despre viitorul inteligentei artificiale

de Vlad Barza     HotNews.ro
Vineri, 25 martie 2016, 14:45 Economie | IT

Tay Tweets
Foto: Twitter
Domeniul inteligentei artificiale a avansat enorm in ultimii ani, insa progresele nu au acoperit toate categoriile, asa cum arata experimentul facut de Microsoft cu "robotul" de chat Tay care a invatat o multime de prostii si a folosit limbaj injurios, dupa ce a interactionat cu tinerii de pe Twitter mai putin de o zi. Robotul a fost conceput in scop educativ, insa a ajuns sa posteze mesaje cu continut sexual sau mesaje in care il lauda pe Hitler. De ce s-a intamplat asta puteti citi mai jos.

Tay Tweet este un chat-bot, un user virtual de Twitter pe care Microsoft l-a creat pentru a testa modul in care acesta intelege conversatiile cu tinerii si pentru a testa si ce va posta dupa ce va urmari ce-i scriu tinerii. Insa in mai putin de 24 de ore experimentul a fost oprit fiindca "robotul" a postat mesaje injurioase care au uimit multa lume.

De jumatate de secol sunt testate programe informatice conversationale care sa mimeze discutia cu un om, conceptul fiind unul pasionant. In ultimii ani eforturile s-au intetit, mai ales ca exista tot mai multi "asistenti vocali" care inteleg comenzi tot mai sofisticate.

Chat-bot-ul Microsoft a degenerat in limbaj deplorabil si fiindca cei care l-au creat nu au pus dinainte niste filtre si nu au prevazut ca in interactiunea cu tinerii, Tay va "invata" de la ei ce inseamna violenta verbala, fiindca pe Twitter se injura mult, iar mesajele rasiste sunt prezente din plin.

Un "blacklist" care sa includa cuvinte injurioase ar fi fost util si ar fi limitat numarul mesajelor jignitoare, spune un expert in inteligenta artificiala, citat de Business Insider. Acesta spune ca Microsoft ar fi trebuit sa pregateasca mai bine soft-ul fiindca era de asteptat ca tinerii de pe Twitter, exact publicul tinta pentru Tay, sa testeze ce poate chat-bot-ul, provocabdu-l sa raspunda la lucruri deloc frumoase.

Intreaga poveste arata ca orice program de inteligenta artificiala va trebui indelung testat in "lumea reala" unde interactiunile sunt neprevazute. Abia dupa aceea ar trebui folosit la lucruri serioase si utile.

Microsoft a dat dupa experiment un mesaj in care a explicat care a fost principala problema. "Din nefericire, in primele 24 de ore in care a fost online am constatat un efort coordonat din partea unor utilizatori care au dorit sa-l maltrateze pe Tay, astfel incat sa-si foloseasca abilitatile de comunicare pentru a raspunde intr-un mod impropriu".

Tay Tweet nu a putut deosebi cuvintele inofensive de cele jignitoare si nici conceptiile acceptate, de cele tabu, astfel ca in doar cateva ore si-a insusit limbajul violent din interactiuni si a postat mesaje care au ingrozit multe lume.

Relatand povestea, Financial Times noteaza ca experimentul a fost nereusit, insa extrem de util fiindca arata ca aceste soft-uri de inteligenta artificiala nu sunt atat de inteligente pe cat spun creatorii lor ca sunt. Pusi in fata interactiunii cu oamenii obisnuiti, algoritmii pot da replici spectaculoase, dar deloc potrivite.

In plus, oamenii, pusi in fata unor discutii cu un program de inteligenta artificiala, vor incerca din curiozitate sa il testeze la maxim si ii vor pune intrebari ciudate, rasiste, xenofobe, despre sex si despre orice iti poti inchipui. Programele trebuie "antrenate" sa faca fata cu brio acestor intrebari, nu sa "absoarba" totul ca un burete.


Citeste mai multe despre   











[P] Tu ce mananci azi la birou? Preparate culinare delicioase, care iti asigura energia necesara pentru intreaga zi

In intelepciunea populara se spune ca "toamna se numara bobocii". Adaptata la secolul vitezei, aceasta zicala arata ca toamna se numara proiectele, care vin pe banda rulanta si trebuie finalizate cu brio in cel mai scurt timp. Iar intr-o perioada plina de task-uri solicitante la birou, masa de pranz reprezinta singura perioada in care va puteti incarca cu energia necesara pentru a le duce la bun sfarsit. Cum, de multe ori, programul nu va permite sa gatiti acasa preparatele culinare preferate, foodpanda.ro, cea mai mare platforma de comenzi de mancare din Romania, va intampina cu cea mai variata gama de mancaruri gustoase, pline de vitamine si proteine sanatoase, care va dau energie pentru intreaga zi.
8082 vizualizari
  • 0 (2 voturi)    
    Schimbati numele softului (Vineri, 25 martie 2016, 15:01)

    ProLibertate-AntiMerkel [utilizator]

    in VadimTweets.
    • 0 (0 voturi)    
      Lasa mortii in pace! (Luni, 28 martie 2016, 10:59)

      BEDE [utilizator] i-a raspuns lui ProLibertate-AntiMerkel

      Vadim a fost la vremea lui, cu nebuniile lui.
      Poate seamana mai curand cu Donald Trump: asta este acum pe cai mari... Si sunt multi prosti care il iau de bun.


Abonare la comentarii cu RSS

Top 5 articole cele mai ...



Hotnews
Agenţii de ştiri

Siteul Hotnews.ro foloseste cookie-uri. Cookie-urile ne ajută să imbunatatim serviciile noastre. Mai multe detalii, aici.
hosted by
powered by
developed by
mobile version
Duminică