​Facebook (care de curând și-a schimbat numele în Meta) a anunțat că a dezvoltat și folosește o nouă tehnologie de inteligență artificială numită FSL care să permită rețelei să depisteze mai rapid conținutul dăunător și mai ales să repereze încă de la început tendințele care pot duce la apariția unor curente de conținut ce încalcă regulile rețelei. Facebook a spus în numeroase rânduri că tehnologiile sale de inteligență artificială pot detecta și elimina aproape toate postările ce conțin limbaj violent și imagini ce încalcă regulile, dar o anchetă recentă a Wall Street Journal arăta că eficiența nu este atât de mare.

Facebook MetaFoto: Daniel Constante, Dreamstime.com

Compania spune că noua tehnologie va putea ”învăța” mai bine din mai puține exemple și va fi eficientă și în limbi unde există puține exemple de unde modelele matematice să pornească.

Facebook spune că noua tehnologie nu este gândită să înlocuiască moderatorii umani, ci să-i ajute pe aceștia să ajungă mai ușor la conținutul care ar putea încălca regulile de pe rețea.

Compania promite că va îmbunătăți tehnologia în următoarele luni și că aceasta va fi disponibilă în mai multe limbi față de cele 100 din prezent.

Meta spune că tehnologia de AI se numește Few-Shot Learner (FSL) și că aceasta se poate adapta pentru a acționa mult mai repede asupra unor tipuri noi de conținut dăunător sau asupra unui conținut în evoluție. Tehnologia ”învață” dintr-o mulțime de tipuri de date și poate ”ranforsa” modelele de inteligență artificială care sunt deja folosite pentru detectarea diverselor tipuri de conținut.

Metoda folosită se numește ”few-shot learning” (FSL) și compania a început să o testeze de la final de 2020. Modelele matematice pornesc cu o înțelegere generală, vastă a multor subiecte și apoi au nevoie de mult mai puține exemple etichetate, și uneori chiar zero exemple, ca să învețe noi task-uri. Compania compara metoda sa cu o undiță ce poate prinde mai multe tipuri de pești față de o undiță simplă ce poate prinde un singur tip de pește.

Tehnologia FSL este aplicată pe rețelele Facebook și Instagram.

Sistemele de inteligență artificială ale Facebook ”răsfoiesc” prin miliarde de postări pentru a le găsi pe cele care încalcă diversele reguli privind conținutul injurios sau care jignește. Acești algoritmi de ”screening” sunt numiți ”classifiers” și sunt fundația vastului sistem de moderare de conținut al Facebook.

Meta spune că în unele exemple acest nou sistem de AI a îmbunătățit acești ”classifiers” care semnalează conținut ce incită la violență, spre exemplu.

Sunt foarte complicat de construit acești ”classifiers” și un număr mare de oameni trebuie să marcheze o mulțime de postări în funcție de un set de reguli. Inginerii iau aceste exemple și își ”antrenează” sistemele pentru a determina probabilitatea ca alte postări să încalce regulile.

Algoritmii pot elimina automat postări cu limbaj ce incită la ură când au ajuns la un anumit nivel de încredere că acea postare încalcă regulile Facebook sau postările discutabile pot fi retrogradate, astfel încât să fie văzute de cât mai puțini și să fie distribuite la minim.

În multe cazuri algoritmii detectează cu precizie problema și elimină ce trebuie, însă în alte cazuri, unde postarea este mai controversată și limbajul are subînțelesuri, precizia scade mult și depinde și de diferențele culturale din diverse locuri și de chestiunile care într-un loc sunt ok și în altul sunt foarte sensibile.

Facebook spune că a cheltuit 13 miliarde pentru “safety and security” din 2016 și până în prezent, ceea ce înseamnă 4% din venituri. Compania a spus că are 40.000 de angajați la acest capitol și că uneltele de AI au fost mereu perfecționate pentru a identifica cea mai mare parte a postărilor care încalcă regulile rețelei.