Facebook spune că soft-urile sale de inteligență artificială au detectat în ultimele trei luni 8,7 milioane de imagini cu copii abuzați, ajutând moderatorii să fie mai eficienți. Despre soft-urile utilizate Facebook nu a oferit până acum informații, însă compania spune că detectează în special imagini unde apar copii fără haine pe ei, scrie The Guardian. Cei de la Facebook spun că soft-urile îi ajută pe moderatorii umani să elimine rapid imaginile cu conținut problematic.

FacebookFoto: Facebook

Facebook a fost presată și de utilizatori, dar și de autorități, să fie mai eficientă nu doar în eliminarea știrilor false și a conținutului ce incită la ură, dar și a imaginilor cu copii abuzați. Cum pe rețea sunt 2,2 miliarde de oameni, moderatorii au nevoie de software special care să detecteze imaginile problematice.

Soft-urile ce folosesc machine learning sunt imperfecte și au existat mai multe cazuri care au făcut vâlvă, fiindcă au fost scoase automat imagini cu opere de artă sau fotografii celebre.

Antigone Davis, director la Facebook, spune că tehnicile de machine learning fac greșeli, dar utilizatorii pot să semnaleze celor de la Facebook problema și moderatorii umani vor interveni să analizeze situația ”Preferăm să fim cât se poate de prudenți când este vorba de copii”.

Facebook folosește și soft-uri care detectează cazurile în care un adult încearcă să contacteze copii prin intermediul rețelei și se bazează pe diverși factori, unul fiind numărul de utilizatori care l-au blocat pe respectivul user.