Le message est, semble-t-il, passé. Ces dernières semaines, Bruxelles a accentué la pression sur les géants du numérique pour qu’ils contrôlent leurs réseaux sociaux, inondés de messages haineux et de vidéos violentes depuis les attaques du Hamas contre Israël. La Commission européenne a ainsi écrit aux dirigeants des grandes plateformes, dont Meta (Facebook, Instagram), X (ex Twitter), Google, Tik Tok pour leur demander quels moyens supplémentaires ils comptaient mettre en place pour se conformer à la nouvelle législation européenne sur les services numériques, le Digital Services Act (DSA). Depuis le 25 août, ces plateformes ont l’obligation de contrôler et de modérer les contenus sur leurs réseaux sociaux, sous peine des lourdes amendes pouvant atteindre 6 % de leur chiffre d’affaires.

«Toutes les plateformes nous ont répondu dans les 24 heures en nous indiquant les moyens quelles mettaient en place pour lutter contre une déferlante potentielle, a expliqué dimanche, Thierry Breton, le Commissaire européen au Marché intérieur, chargé des questions de défense et du numérique, invité du Grand Jury RTL-Le Figaro-M6-Paris Première. Je dois reconnaître qu’Elon Musk était un peu étonné que désormais le régulateur lui demande des comptes et pas l’inverse.»

Selon le Commissaire français, «un tournant majeur en train de se produire.» Le réseau social chinois, TiK Tok a ainsi communiqué à Bruxelles avoir supprimé 4 millions de vidéos faisant notamment «l’apologie du terrorisme». Sur le réseau social, quelque 6000 personnes (modérateurs), dont 700 en France sont chargées de traquer les messages «illicites». De son côté Meta retire de ses réseaux sociaux 800.000 vidéos par jour. Quid du réseau social X ? «C’est un peu moins, mais ils progressent», note Thierry Breton. Le réseau social qui, depuis le rachat d’Elon Musk il y a un an a sensiblement réduit le nombre de modérateurs, est en train d’en recruter. Mi-octobre, Bruxelles a ouvert une enquête visant le réseau social X pour la diffusion présumée de «fausses informations», « contenus violents et à caractère terroriste » ou « discours de haine. »

Bruxelles est par ailleurs en train de travailler sur grand projet législatif sur l’intelligence artificielle, l’AI Act. Celui-ci prévoit de limiter les risques, en interdisant certains usages, tels que les systèmes de «notation sociale» ou la reconnaissance facial. Pour les usages jugés «à haut risque» (conduite autonome, attribution de crédits bancaires…), il imposera des obligations, comme celles de minimiser le taux d’erreur et les biais discriminatoires. «Le troisième trilogue aura lieu à la fin de l’année», assure Thierry Breton. Dans ce rituel institutionnel propre à Bruxelles, le Parlement européen, la Commission et le Conseil, qui représente les États membres, cherchent à trouver un compromis autour d’un projet législatif.