Amazon a renunțat la un soft de inteligență artificială folosit ca ajutor pentru găsirea de noi angajați, după ce s-a dovedit că programul depuncta CV-urile femeilor

de Vlad Barza     HotNews.ro
Miercuri, 10 octombrie 2018, 12:30 Economie | IT


Logo Amazon
Foto: Hotnews
Amazon s-a ajutat un timp de un soft cu inteligență artificială care selecta CV-urile cele mai bune, dar a renunțat la folosirea lui după ce s-au descoperit o serie de neajunsuri, inclusiv că CV-urile femeilor erau depunctate, informează Reuters. Este încă o dovadă că inteligența artificială trebuie folosită cu prudență și ca ajutor al oamenilor, nu ca înlocuitor.

Dat fiind că primea multe CV-uri, Amazon a decis în 2014 să pună la treabă o echipă pentru a automatiza cât mai mult procesul de recrutare. Amazon a automatizat multe operațiuni, iar folosirea inteligenței artificiale pe scară largă și la resurse umane a fost un pas logic.

Soft-ul a fost dezvoltat să se uite în CV-urile aplicanților și să le seclecteze pe cele mai promițătoare, fiecărui CV soft-ul dându-i o notă de la 1 la 5.

În 2015 cei de la Amazon au observat că unealta software discrimina femeile care aplicau pentru posturi tehnice, precum dezvoltator software, fiindcă modelele de computing ale Amazon au fost antrenate după tendințele legate de numărul CV-urilor depuse în ultimii 10 ani, iar bărbații au depus mult mai multe CV-uri decât femeile.

Practic, sistemul automatizat al Amazon funcționa pe ideea că bărbații care depuneau CV-ul sunt de preferat, iar CV-urile femeilor erau penalizate și dacă includeau cuvântul femeie în diverse activitați trecuite în CV de cea care aplică pentru un job. De exemplu au fost depunctate femeile care în CV scriau că au fost în echipa de șah sau că au făcut facultatea la universități unde clasele erau formate integral din femei. Depunctarea a venit numai din cauză că în CV era trecut cuvântul femeie.

Amazon a făcut modificări la algoritmi și la programe pentru ca ele să devină neutre când găseau termenul femeie în CV-uri, însă nu era nicio garanție că nu vor apărea alte categorii la care soft-ul să discrimineze.

Amazon a oprit proiectul la începutul anului trecut, concluzia fiind că nu există speranțe pentru el, iar recrutatorii de la companie au folosit soft-ul doar ca recomandare, dar nu s-au mai bizuit pe notele date automat de tool-ul informatic, spun sursele citate de Reuters.

Experimentul este o dovadă că inteligența artificială are multe limitări și companiile nu trebuie să se bazeze doar pe recomandările făcute de un soft, când decide cine are șanse mari de angajare.


Citeste mai multe despre   










1644 vizualizari

  • +5 (5 voturi)    
    Retelele neuronale (Miercuri, 10 octombrie 2018, 13:09)

    gaspy [utilizator]

    Asta e problema retelelor neuronale: sunt "antrenate" pe baza unor (foarte multe) mostre, dar nimeni nu stie cum si ce "invata" defapt.
    Acum multi ani se vorbea de un soft dezvoltat pentru armata SUA care sa detecteze tancuri in fotografiile din satelit. Programul functiona cu acuratete de 100% pe seturile de test, dar in practica a esuat. De ce? Practic programul invatase sa deosebeasca pozele in care sunt tancuri de cele in care nu sunt dupa lumina - unele poze fusese facute intr-o zi insorita, celelalte intr-o zi innorata.
    Mai recent, softul de recunoastere de imagini de la Microsoft, daca detecteaza niste dealuri cu ceva contrastant pe ele, zice automat ca sunt oi, chiar daca defapt sunt bolovani...
    Si exemplele pot continua.
    • +4 (4 voturi)    
      ..au castigat (Miercuri, 10 octombrie 2018, 14:10)

      amx [utilizator] i-a raspuns lui gaspy

      E undeva pe la mijloc - in acest stagiu erau lucrurile in principiu acum cativa ani, intre timp s-au facut progrese destul de mari. Ma hazardez putin intrand in domeniu desi e un forum public mai putin specializat:

      - mecanisme cum sunt atentia (eventual multi-head attention, folosit in NMT) de exemplu incep sa fie explicate atat la nivel de intuitie (vizualizari) cat si fundamentare matematica.
      - in imaging (unde apropo, in afara de exemplul tau exista documentate cazuri si mai ridicole, 1-pixel attack de ex) iar exista momentum destul de mare (capsule networks,..)
      - in reinforcement learning (procese de decizie - ex. AlphaGo) fundamentul matematic este demonstrat ca fiind optim (Bellman).
      - nu exista AI generic si vor exista tot timpul probleme vis-a-vis de numarul si calitatea mostrelor, business domain, bias si imbalans in clase - insa si aici exista pattern-uri ce pot fi exploatate, zona transfer learning.

      Desi asa e, mai e mult de munca cred ca mai mult decat oricand acum trebuie sa deschidem ochii pentru ca acum se pun fundatiile. AI-ul a devenit una din componentele majore a multor elemente din viata de zi cu zi si evolutia asta accelereaza cu fiecare an. Intrebari legate de eficienta insa nu mai exista de mult cred - AI-ul cu automatizarea pe care o poate genera a castigat. Aplaud oamenii circumspecti din fire, crede dar verifica.
  • 0 (2 voturi)    
    lol (Miercuri, 10 octombrie 2018, 13:44)

    Talibanu' cu turban Armani [utilizator]

    AI-ul sexist =))
  • +4 (4 voturi)    
    iQuit (Miercuri, 10 octombrie 2018, 14:05)

    JustinCase [utilizator]

    Softul de inteligenta artificiala a concluzionat ca el este prea destept pentru un asemenea task si a decis sa se dedice unei cu totul alte activitati mai semnificative pentru capacitatea sa intelectuala. Acum cei de la Amazon au postul de HR vacant... :)
  • -6 (10 voturi)    
    ahahahaha (Miercuri, 10 octombrie 2018, 14:14)

    liviu_ [utilizator]

    "Este încă o dovadă că inteligența artificială trebuie folosită cu prudență și ca ajutor al oamenilor, nu ca înlocuitor" - algoritmu da ceva care nu e corect politic... e prost algoritmul!

    ba oameni buni... reteaua neuronala se ia dupa niste date numai de el stiute... cel mai probabil nu a difenrentiat dupa sex , ci dupa alte date care duc la niste diferentieri de sex!
    daca algoritmul a depunctat femeile pentru ca a constatat ca femeile au in general o performanta mai scazuta, e vina algoritmului?!
    astia sunt al dracu de accurate in general si nu sunt nici rasisti!

    "Experimentul este o dovadă că inteligența artificială are multe limitări și companiile nu trebuie să se bazeze doar pe recomandările făcute de un soft, când decide cine are șanse mari de angajare." - sa mori tu?! AIu in probleme de genul asta sunt, in general , MULT mai buni decat oameniii. Si in exemple practice in care viata oamenilor depinde de asta! Nu are nici o limitare AIul.. el are niste motive extrem de logice pentru care face asta ( si NU sunt rasiste) ppe care noi nu le intelegem, sau (din cauza corectitutdinii politice) nu le acceptam!
    • +4 (4 voturi)    
      scrie clar de eroare (Miercuri, 10 octombrie 2018, 16:33)

      4real [utilizator] i-a raspuns lui liviu_

      Practic, sistemul automatizat al Amazon funcționa pe ideea că bărbații care depuneau CV-ul sunt de preferat, iar CV-urile femeilor erau penalizate și dacă includeau cuvântul femeie în diverse activitați trecuite în CV de cea care aplică pentru un job. De exemplu au fost depunctate femeile care în CV scriau că au fost în echipa de șah sau că au făcut facultatea la universități unde clasele erau formate integral din femei. Depunctarea a venit numai din cauză că în CV era trecut cuvântul femeie.
      • -1 (3 voturi)    
        mhmmm (Joi, 11 octombrie 2018, 4:27)

        Je__ [utilizator] i-a raspuns lui 4real

        A invatat singur....mama lui de misogin
        Asta e diferenta intre un algoritm si AI.
        Algorithm ii spui tu cum sa faca si ce sa faca: garbage in, garbage out
        AI: invata singur, si habar nu ai cum face ce face

        Faptul ca rezultatul nu e politically correct, nu inseamna ca AI e gresit...de multe ori e 99% damn accurate, si fara bias-uri humanoide
  • +4 (6 voturi)    
    Problema in programare (Miercuri, 10 octombrie 2018, 16:06)

    enache22 [utilizator]

    garbage in, garbage out.
  • -2 (2 voturi)    
    Insert affirmative action (Miercuri, 10 octombrie 2018, 17:39)

    Setalcott [utilizator]

    Se pare ca e vorba de feature selection. Algoritmul de machine learning a invatat ca CVurile care au cuvantul femeie in ele sunt mai slabe. Adica a invatat singur, fara sa-i spuna nimeni, ce se vede cu ochiul liber: domeniile tehnice sunt dominate de barbati.
    • +1 (3 voturi)    
      ..class imbalance (Miercuri, 10 octombrie 2018, 18:41)

      amx [utilizator] i-a raspuns lui Setalcott

      ..sau poate ceea ce observam este doar efectul/concluzia observatiilor.

      Daca ai class imbalance in training set (cum e in IT, mai multe exemple de barbati) atunci cand faci forecasting chiar daca ai precizia identica la calificari (barbati/femei) vei produce un recall mai mare (volum mai mare de informatie utila returnata) daca algoritmul tau ML/DL duce decision boundary-ul mai spre barbati - practic decide ca are succes mai mult la final daca captureaza si prior-ul asta.

      cauza -> efect -> cauza -> efect si tot asa.

      Din pacate asta facem azi, am luat efectul asta drept cauza asadar punem baietii sa se joace pe computere de mici pe cand fetitele primesc papusi, si mai apare un studiu identic in alti 5 ani.

      [machine learning day, nu ma pot abtine:)]


Abonare la comentarii cu RSS

ESRI

Top 10 articole cele mai ...



Hotnews
Agenţii de ştiri

Siteul Hotnews.ro foloseste cookie-uri. Cookie-urile ne ajută să imbunatatim serviciile noastre. Mai multe detalii, aici.
hosted by
powered by
developed by
mobile version