Comisia Europeană a anunţat joi că a deschis o investigaţie asupra companiei Meta în legătură cu protecţia minorilor pe platformele sale Facebook şi Instagram, transmit agențiile DPA și Reuters, citate de Agerpres.

Mark Zuckerberg la o prezentareFoto: Amy Osborne / AFP / Profimedia Images

Investigaţia este legată de temeri că platformele Facebook şi Instagram „ar putea exploata slăbiciunile şi lipsa de experienţă a minorilor şi le-ar putea induce adicţii comportamentale”, conform unui comunicat de presă al Comisiei.

O altă îngrijorare este legată de așa-zisul efect „rabbit hole” (gaură de iepure) care „te atrage spre din ce în ce mai mult conţinut deranjant”, conform unui oficial din partea Comisiei. Executivul UE este de asemenea îngrijorat în legătură cu accesul minorilor la conţinut neadecvat, precum şi cu privire la protecţia vieţii private.

Investigaţia va verifica şi dacă Facebook şi Instagram respectă legea europeană privind serviciile digitale (Digital Services Act - DSA), o lege care impune platformelor online mari să evalueze şi să limiteze anumite riscuri legate de utilizarea serviciilor oferite, în special în cazul copiilor.

„Nu suntem convinşi că Meta a făcut suficient pentru a se conforma obligaţiilor ce rezultă din DSA - să atenueze riscul de efecte negative asupra sănătăţii fizice şi psihice a tinerilor europeni pe platformele sale Facebook şi Instagram”, a susţinut printr-o postare pe X, fosta Twitter, comisarul european pentru piaţă internă Thierry Breton.

Un oficial din cadrul CE a explicat că „efectul rabbit hole” este creat atunci când algoritmii unei platforme „le oferă utilizatorilor un anumit tip de conţinut - spre exemplu conţinut ce poate conduce la depresie sau care oferă imagini şi aşteptări nerealiste cu privire la corp - care favorizează problemele de sănătate psihică la copii”.

Meta, investigată alături de TikTok privind măsurile de protejare a minorilor

Meta ar putea să se confrunte cu dificultăţi şi în ceea ce priveşte folosirea unor instrumente pentru verificarea vârstei care să fie „rezonabile, proporţionale şi eficiente” pentru a-i împiedica pe copii să acceseze conţinuturi interzise minorilor, se mai arată în comunicatul CE.

Comisia va investiga, de asemenea, şi dacă Meta nu respectă „obligaţiile ce-i revin prin DSA de a aplica măsuri adecvate şi proporţionale pentru a asigura un nivel ridicat de siguranţă şi securitate pentru minori".

Dacă în urma acestei anchete se va stabili că Meta a încălcat regulile DSA privind diminuarea riscurilor, compania ar putea fi amendată cu până la 6% din venitul său anual global. Compania Meta este deja investigată sub raportul DSA cu privire la modul în care gestionează publicitatea politică, înaintea alegerilor pentru Parlamentul European ce vor avea loc în perioada 6 - 9 iunie.

De asemenea, CE investighează şi TikTok în legătură cu chestiuni similare legate de siguranţa şi protecţia minorilor. Regulile de diminuare ale riscurilor din cadrul DSA se aplică „platformelor online foarte mari”, adică acele platforme care dispun de peste 45 de milioane de utilizatori activi de pe teritoriul UE în fiecare lună.

Într-o anchetă separată, Meta este investigată de Comisia Europeană, alături de alți giganți tech americani, privind presupuse practici anticoncurențiale.