Facebook a spus în numeroase rânduri că tehnologiile sale de inteligență artificială pot detecta și elimina aproape toate postările ce conțin limbaj violent și imagini ce încalcă regulile rețelei, dar în realitate aceste tehnologii sunt mult mai puțin eficiente și uneori detectează sub o zecime dintre postările cu probleme, arată o nouă anchetă Wall Street Journal. Facebook a contrazis concluziile articolului și spune că prevalența postărilor cu limbaj injurios s-a redus cu 50% în ultimele trei trimestre.

Facebook si problemele de curatenie pe platformaFoto: Captura Wall Street Journal

WSJ a publicat o nouă investigație în categoria ”Facebook Files” și citează documente interne ale companiei care arată că tehnologiile de AI (inteligență artificială) nu sunt deloc atât de eficiente cum au spus, de nenumărate ori, șefii companiei, iar când este vorba de discurs ce incită la ură sunt eliminate chiar și sub 5% din postările problematice.

Tehnologiile de AI nu pot identifica în mod consecvent postările cu limbaj rasist, nu pot uneori distinge între un om care spală mașina și unul care umblă pe stradă cu o pușcă în mână sau uneori nu pot face diferența dintre postări cu imagini de la lupte între cocoși și cele cu poze tulburătoare de la un accident de mașină.

Alte documente arată că unii cercetători de la Facebook consideră că nu se va putea ajunge ca tehnologiile de AI să poată detecta peste jumătate dintre postările de tip ”hate speech”, iar specialiști citați de WSJ spun că este foarte greu să se dezvolte soft-uri care să recunoască fidel aproape toate postările care încalcă regulile de conduită pe Facebook.

Facebook spune că a cheltuit 13 miliarde pentru “safety and security” din 2016 și până în prezent, ceea ce înseamnă 4% din venituri, Compania a spus că are 40.000 de angajați la acest capitol și că uneltele de AI au fost mereu perfecționate pentru a identifica cea mai mare parte a postărilor care încalcă regulile rețelei.

Sistemele de inteligență artificială ale Facebook ”răsfoiesc” prin miliarde de postări pentru a le găsi pe cele care încalcă diversele reguli privind conținutul injurios sau care jignește. Acești algoritmi de ”screening” sunt numiți ”classifiers” și sunt fundația vastului sistem de moderare de conținut al Facebook.

Este foarte complicat de construit acești ”classifiers” și un număr mare de oameni trebuie să marcheze o mulțime de postări în funcție de un set de reguli. Inginerii iau aceste exemple și își ”antrenează” sistemele pentru a determina probabilitatea ca alte postări să încalce regulile.

Algoritmii pot elimina automat postări cu limbaj ce incită la ură când au ajuns la un anumit nivel de încredere că acea postare încalcă regulile Facebook sau postările discutabile pot fi retrogradate, astfel încât să fie văzute de cât mai puțini și să fie distribuite la minim.

În multe cazuri algoritmii detectează cu precizie problema și elimină ce trebuie, însă în alte cazuri, unde postarea este mai controversată și limbajul are subînțelesuri, precizia scade mult și depinde și de diferențele culturale din diverse locuri și de chestiunile care într-un loc sunt ok și în altul sunt foarte sensibile.

Documentele mai arată și că în 2019 Facebook a ajuns la concluzia că erau prea mari costurile cu moderarea umană a postărilor ce conțin hate-speech, estimările fiind că erau costuri de 2 milioane dolari pe lună. Se dorea reducerea acestor costuri cu 15%.

Facebook a pus o postare pe blogul oficial în urma anchetei WSJ, postare sub titlul ”Hate Speech Prevalence Has Dropped by Almost 50% on Facebook ”. Compania își apără tehnologia, contrazice câteva dintre cele spuse de WSJ și preciza și că prevalența limbajului injurios a scăzut puternic pe rețea datorită eforturilor făcute de Facebook și a tehnologiilor automatizate.