Inteligenta Artificiala Google DeepMind intelege beneficiile tradarii

de Rares Musatoiu     HotNews.ro
Marţi, 14 februarie 2017, 1:03 Economie | IT

Logo Google
Foto: Flickr
Inteligenta artificiala este din ce in ce mai probabil sa fie vestitoarea unei noi revolutii tehnologice. Cand se dezvolta pana in punctul in care este capabila sa invete si chiar sa "simta" fara a fi umana, atunci tot ceea ce stim se va schimba, aproape peste noapte, potrivit iflscience.com

De aceea este foarte important sa tinem evidenta reperelor majore in dezvoltarea inteligentei artificale existenta astazi, incluzand aceea a retelei neurale Google DeepMind. Aceasta deja depaseste umanitatea in lumea jocurilor si un nou studiu arata ca Google este nesigur daca inteligenta artificiala are tendinta de a prefera comportament cooperant sau cele agresive, competitive.

O echipa de la Google au setat doua scenarii relativ simple pentru a testa daca retelele neurale tind sa lucreze impreuna sau sa se distruga una pe cealalta cand sunt puse in fata unor resurse limitate. Prima situatie, intitulata "Adunarea", in care au fost implicate doua versiuni ale DeepMind, Rosu si Albastru au avut sarcina de a recolta mere verzi dintr-un spatiu limitat.

Cele doua retele erau echipate cu lasere cu care puteau sa dezactiveze oricand oponentul pentru o perioada de timp si au primit doua optiuni simple: sa culeaga toate merele sau sa le permita fiecareia sa aiba un numar aproximativ egal. Ruland simularea de sute de ori, Google a descoperit ca DeepMind era foarte pasnica si cooperanta, in momentul in care era un numar ridicat de resurse in acel spatiu. Cu cat erau mai putine mere, cu atat Rosu si Albastru aveau tendinta de a se dezactiva una pe cealalta, o situatie care seamana destul de mult viata reala pentru multe animale, inclusiv oamenii.

In al doilea scenariu, intitulat "Haita de lupi", cele doua retele neurale au fost puse sa vaneze o forma greu de definit de "prada". Ele puteau sa incerce sa le prinda separat, dar era mai benefic pentru ele daca incercau sa le prinda impreuna. Desi rezultatele au fost amestecate cu retelele mici, echivalentul lor mai mare au realizat rapid ca a fi cooperant in loc de a fi competitiv in situatia asta era mult mai benefic.

Deci ce ne spun aceste doua versiuni ale "dilemei prizonierului'? DeepMind stie ca pentru a vana o tinta, cooperarea este mai buna, dar cand resursele sunt rare, uneori, tradarea functioneaza bine.


Citeste mai multe despre   










3548 vizualizari

  • -1 (1 vot)    
    La ce sa te astepti? (Marţi, 14 februarie 2017, 9:52)

    BEDE [utilizator]

    Daca programatorii sunt oameni, atunci si inteligenta artificiala va mima inteligenta naturala a oamenilor care au creat-o.
    Daca sunt setate anumite obiective, atunci inteligenta artificiala va face totul pentru a atinge acele obiective, fara nici un fel de "scrupule". Marea problema ar fi cum anume inteligenta artificiala si-ar putea seta singura obiectivele... Sau cum anume ar fi ca inteligenta artificiala sa aiba un fel de simt moral? Am impresia ca moralitatea nu tine strict de inteligenta, ci este de alta natura.
  • 0 (0 voturi)    
    Termen stiintific capcana pentru traducatori (Marţi, 14 februarie 2017, 14:51)

    Setalcott [utilizator]

    Retele neuronale


Abonare la comentarii cu RSS



ESRI

Top 5 articole cele mai ...



Hotnews
Agenţii de ştiri

Siteul Hotnews.ro foloseste cookie-uri. Cookie-urile ne ajută să imbunatatim serviciile noastre. Mai multe detalii, aici.
hosted by
powered by
developed by
mobile version