​Acum doi ani Facebook spunea că nu există nicio problemă cu știrile false, însă acum peisajul este cu totul diferit, iar rețeaua cu două miliarde de utilizatori a fost intens criticată în ultimele luni pentru cum se răspândesc știrile neadevărate. Facebook promite că va lupta cu fenomenul fake news folosind atât inteligența artificială, cât și moderatorii umani și organizațiile care verifică dacă știrile sunt adevărate. Nu va fi posibilă eliminarea totală a spam-ului și a știrilor false, însă ținta este ca acestea să fie mai puține decât în prezent. În articol puteți citi pe larg ce spune unul dintre cei mai importanți oficiali Facebook despre ce va face compania.

Tessa Lyons, Product Manager pentru News Feed la FacebookFoto: Vlad Barza / HotNews.ro

Declarațiile principale ale Tessei Lyons, șefa produsului ”News Feed”

  •  Trebuie să recunoaștem că uneori nu ne descurcăm prea grozav în a explica cum funcționează tehnologiile de bază din spatele produselor noastre.
  •  Uneori oamenii au impresia că Facebook nu prea face progrese în lupta cu fenomentul fake news și din cauză că nu există un consens pentru definiția fake news. ”Fără o definiție clară a problemei nu poți măsura cât de gravă este ea și nu poți calcula progresul”.
  •  Admitem că există o tensiune și admitem că nu eliminăm știrile false, ci eliminăm tot ce încalcă regulamentul comunității. Dar în standardele comunității nu scrie că tot ce distribui pe Facebook trebuie să fie și adevărat.
  •  Fact-checking-ul va fi aplicat nu doar la text, ci și la foto și video, acest lucru fiind valabil în patru piețe mari. O astfel de verificare este utilă pentru manipulări (video-uri modificate (editate să arate ceva ce nu s-a întâmplat cu adevărat) sau cu lucruri scoase din context (fotografii făcute în trecut, dar prezentate ca fiind actuale).
  •  Vor exista mereu știri false, chiar dacă sub diverse forme. Important este să le ținem în frâu, să le reducem. (...) Îmi pare rău să vă spun că mereu veți vedea spam, dar să sperăm că va fi din ce în ce mai puțin”.
  •  La fel cum oamenii fac greșeli și inteligența artificală poate greși. Combinația ideală este formată din tehnologie și din oameni. La unele lucruri oamenii se descurcă mai bine, la altele tehnologia este mai potrivită.

Știrile false se răspândesc foarte repede. Facebook le combate și cu soft-uri, dar și cu oameni

Că știrile false se răspândesc mai repede decât cele adevărate se știa, însă rapiditatea cu care "fake news-urile" ajung la foarte mulți oameni i-a uimit pe cercetătorii de la MIT care au prezentat în martie un studiu uriaș, pornind de la peste 130.000 de știri care au fost distribuite în ultimii 12 ani pe Twitter. Studiul a mai arătat că știrile politice false sunt mai ”virale” decât orice alt fel de știre, iar o altă concluzie a fost că, deși boții contribuie la răspândirea știrilor false, oamenii sunt cei care le fac virale, fiindcă le redistribuie des.

Facebook s-a dovedit a fi un mediu ideal pentru viralizarea articolelor neadevărate și mulți au spus că a facut prea puțin contra fenomenului și că pur și simplu a devenit o companie prea mare care a pierdut controlul asupra unor funcții cheie.

”Trebuie să recunoaștem că uneori nu ne descurcăm prea grozav în a explica cum funcționează tehnologiile de bază din spatele produselor noastre”, admite Tessa Lyons, product manager pentru News Feed, prezentă la un eveniment de presă la Varșovia.

Facebook folosește algoritmi complecși pentru a decide ce afișează pe News Feed-ul (Secțiunea Noutăți) fiecărui user, făcând o selecție din postările prietenilor și paginilor. Compania spune că algoritmii afișează pe secțiunea de Noutăți lucrurile care sunt cele mai interesante pentru fiecare user în parte.

Compania afișează un anumit tip de conținut pe News Feed și după ce algoritmii fac anumite predicții despre ce l-ar putea interesa pe fiecare utilizator și care sunt șansele ca user-ul să dea like sau să posteze un comentariu la postările afișate.

Facebook a schimbat algoritmii News Feed de multe ori, dar cea mai recentă schimbare radicală a fost în ianuarie când compania a spus că user-ilor le vor apărea pe News Feed mai multe postări de la familie și prieteni, în detrimentul postărilor de la companii, brand-uri și diverse pubiicații.

Lyons spune că uneori oamenii au impresia că Facebook nu prea face progrese în lupta cu fenomentul fake news și ”din cauză că nu există un consens pentru definiția fake news, știri false,. dezinformare, cum am vrea să-i spunem. Fără o definiție clară a problemei nu poți măsura cât de gravă este și nu poți calcula progresul”.

Lyons spune că Facebook luptă împotriva știrilor false folosind o combinație între tehnologie și moderare umană, ștergând o mulțime de conturi false și înmulțind colaborările cu site-uri de fact checking. Zilnic sunt peste un miliard de postări pe Facebook, astfel că ar fi imposibil ca operatorii umani să verifice chiar și o mică parte dintre ele.

Vaccinarea, un exemplu care arată cât de complicată este problema

S-a discutat enorm în România despre articolele anti-vaccinare care s-au viralizat pe Facebook, articole care au înfuriat multă lume. Am întrebat-o pe Tessa Lyons cum tratează Facebook aceste poziții și dacă le încadrează la fake news.

”Chiar este o problemă serioasă. Dacă un părinte decide că nu vrea să-și vaccineze copilul și scrie pe Facebook asta, nu cred că suntem noi în măsură să spunem că nu are dreptul să-și exprime opinia. Dacă scrii un articol în care se spune că există oameni care spun că vaccinurile au legătură cu autismul există cu siguranță organizații medicale care contrazic opinia și cei care verifică informația pot confirma că este falsă și vom elimina și duplicatele”, explică Tessa Lyons, care spune că este complicat când persoane publice pun în rețea astfel de opinii.

Ce poate face Facebook împotriva acestor persoane? Le poate bloca? ”Dacă paginile unor persoane publice răspândesc informații false le vom reduce distribuiția. Admitem însă că există o tensiune și admitem că nu eliminăm știrile false, ci eliminăn tot ce încalcă regulamentul comunității. Dar în standardele comunității nu scrie că tot ce distribui pe Facebook trebuie să fie și adevărat. Cu peste două miliarde de utilizatori știm faptul că, în multe cazuri, adevărul nu este alb sau negru, ci poate fi și gri, așa că nu putem să îi obligăm pe oameni să posteze doar lucruri adevărate. Nu înseamnă că nu avem responsabilitatea de a acționa, dar cred că, reducând diseminarea conținutului, putem păstra un echilibru între libera exprimare și crearea unei comunități sigure și autentice”.

Scopul nu este nici eliminarea totală a știrilor false sau a spam-ului, fiindcă asta nu este posibil, admite oficialul Facebook, din cauză că aceste lucruri nu pot fi eliminate. ”Vor exista mereu, chiar dacă sub diverse forme. Important este să le ținem în frâu, să le reducem (...) Îmi pare rău să vă spun că mereu veți vedea spam, dar să sperăm că va fi din ce în ce mai puțin”

În multe cazuri alți utilizatori semnalează când este diseminată o informație falsă, însă sunt și situații în care oamenii semnalează ca fiind false, lucruri care de fapt sunt adevărate. De ajutor este scanarea automată a comentariilor, soft-ul fiind ”antrenat” să descopere postări la care numeroase comentarii exprimă neîncredere sau uimire.

Postările care au fost catalogate ca fiind dezinformări sunt apoi ”retrogradate” mult mai jos, iar numărul de vizualizări și distribuiri scade puternic.

Facebook spune și că paginile care răspândesc știri false vor avea o vizibilitate mult mai mică, vor apărea mult mai jos pe News Feed și ideea este ca, dacă aceste pagini fac bani din aceste știri false, modelul lor de business să nu mai fie viabil.

Facebook a tot făcut experimente cu News Feed-ul în diverse țări și îjn mai multe moduri, celebru fiind acela în care secțiunea a fost împărțită în două, acel test dovedindu-se până la urmă un eșec.

Este inteligența artificială, care devine tot mai evoluată, o soluție pentru marea problemă a fenomenului fake news? Nu, spune Tessa Lyons ”La fel cum oamenii fac greșeli și inteligența artificală poate greși dacă încearcă să rezolve doar probleme din trecut. Combinația ideală este formată din tehnologie și din oameni. La unele lucruri oamenii se desurcă mai bine, la altele tehnologia este mai potrivită. În ambele investim masiv și, dacă la început de an aveam 10.000 de oameni care lucrau pe teme legate de securitate, la final de an vor fi 20.000”.

Programele de inteligență artificială trebuie ”antrenate” cu cantități uriașe de date pentru a ajunge să fie eficiente. Dacă pentru postări și articole de tipul clickbait este mai simplu și soft-ului i se pot da multe exemple, pentru dezinformări și știri false este mai greu, deoarece nu există o bază de date care să împartă toate informațiile în adevărate sau false.

Măsuri noi - fact checking extins

Compania va extinde colaborarea cu organizațiile care verifică veridicitatea informațiilor (fact-checking program), lucrând acum cu parteneri din 14 țări și având în plan să extindă numărul de țări, însă nu în această parte a Europei. Lucrul cu organizațiile de fact-checking a început în primăvara lui 2017, în patru țări.

Aceste agenții independente analizează acuratețea articolelor și compania spune că s-a redus cu 80% numărul articolelor false diseminate, datorită colaborării cu aceste agenții. În unele cazuri colaboratorii Facebook din diverse țări scriu articole în care explică de ce știrea este falsă și cum au ajuns la această concluzie, iar aceste articole sunt și ele afișate în News Feed.

Fact-checking-ul va fi aplicat nu doar la text, ci și la foto și video, acest lucru fiind valabil în patru piețe mari. O astfel de verificare este utilă pentru manipulări (video-uri modificate (editate să arate ceva ce nu s-a întâmplat cu adevărat) sau cu lucruri scoase din context (o fotografie făcută la locul unei tragedii, însă în trecut). De exemplu, recent a circulat o fotografie cu copii de la granița SUA - Mexic și, pe fondul emoțiilor stârnite de criza copiilor separați de părinți, mulți au distribuit-o cu bună credință, dar s-a dovedit că era din 2014.

În contextul în care Facebook a fost intens criticată pentru modul în care Rusia s-a infiltrat pe News Feed-uri americanilor cu dezinformări, compania spune că va folosi tot mai mult tehnici de machine learning pentru a identifca pagini din alte țări care, motivate de câștiguri financiare, ar vrea să răspândească lucruri neadevărate în rândul user-ilor din acele țări ”luate la țintă”.

”Am observat că în unele țări sunt rețele de pagini care țintesc mereu useri din alte țări, mai ales unele unde veniturile din publicitate sunt mai mari. Uneori aceste pagini nici nu permit publicului din țara lor să vadă postările și tot aceste pagini fac între ele Copy Paste cu conținutul”, explică Tessa Lyons.

În ultimul an, Facebook spune că a acționat împotriva conturilor care răspândesc în mod repetat știri false, reducându-le mult vizibilitatea și înlăturându-le posibilitatea de a monetiza conținutul. Dacă nu mai au motivație financiară, spammerii se vor orienta spre altceva.

Lyons spune că Facebook a înlăturat aproape 600 de milioane de conturi false în acest an, majoritatea covârșitoare fiind identificate automat și înlăturate în câteva minute de la crearea lor.

Ce probleme pot urma

Tessa Lyons spune că sunt echipe de la Facebook care construiesc scenarii și testează diverse lucruri, încercând să anticipeze cu ce vor veni cei care au gânduri malefice. ”Încercăm să nu repetăm greșelile din trecut, dar nu ne vom limita doar la a ne concentra pe ele, fiindcă dacă aș fi un actor cu intenții negative m-aș gândi că Facebook este o companie mare și va rezolva problemele, așa că aș gândi strategii noi” .

O provocare va fi fenomenul deep fakes care va fi complicat de gestionat, atât din punct de vedere tehnic, cât și pentru organizațiile media, fiindcă acele clipuri vor stârni multe controverse și vor fi greu de depistat, dacă tehnologia se va îmbunătăți.

Schimbărle de pe News Feed, cele din ianuarie, au afectat presa, fiindcă postările publicațiilor au apărut fie mai jos, fie mai rar în News Feed. Recent, șefii unor mari publicații au criticat Facebook pentru planurle sale de luptă contra știrilor false.

Le cere Facebook user-ilor să dea note publicațiilor și să le ierarhizeze în funcție de încrederea acordată? Tessa Lyons spune că s-au făcut studii și sondaje pe Facebook și oamenii au răspuns că au încredere în publicațiile mari, de renume. În fiecare țară oamenii au încredere în câteva publicații mari, însă dacă li se cere oamenilor să facă o ierarhizare există riscul să rămână pe dinafară multe publicații locale excelente.

În ianuarie modificarea radicală a algoritmilor a făcut postările publicațiilor mai puâin vizibile pe News Feed, însă Tessa Lyons spune că userii au cerut ca postările de la prieteni și familie să aibă prioritate. ”Știrile nu reprezentau decât 5% din conținutul News Feed-ului. Știu că pare incredibil când spun asta într-o sală plină cu jurnaliști și poate veți spune că vă dau o informație falsă, fiindcă pe News Feed la voi poate știrile reprezintă jumătate din ce apare. Ei bine, ponderea este mare fiindcă voi citiți multe știri, dar media Facebook este de 5% știri pe News Feed”. Oficialul Facebook spune că schimbarea de algoritm a făcut ca ponderea știrilor să scadă de la 5%, la 4% și asta nu înseamnă că toate publicațiile vor pierde 20%, ci că vor fi afectate doar cele cu conținut de proastă calitate care vor pierde mult, în timp ce publicațiile de calitate se vor descurca în continuare bine.