Synthèse des actions des grandes plateformes en ligne suite au protocole d’engagement volontaire d'Abidjan

Par Arcom - le 02-12-2025

Synthèse des actions des grandes plateformes en ligne suite au protocole d’engagement volontaire adopté à Abidjan le 24 avril 2024

Soucieux de contribuer au développement d’un espace numérique sûr et de confiance, respectueux de la démocratie et des droits de l’Homme et favorisant la diversité culturelle et linguistique, le Réseau francophone des régulateurs des médias (REFRAM) et le Réseau des instances africaines de régulation de la communication (RIARC) ont souhaité renforcer et pérenniser un dialogue constructif de haut niveau entre régulateurs et grandes plateformes présentes en Afrique et dans l’espace francophone.

Cette volonté s’est matérialisée lors de la conférence commune du REFRAM et du RIARC, organisée à Abidjan les 23 et 24 avril 2024 par la Haute Autorité de la communication audiovisuelle (HACA) de Côte d’Ivoire, d’une part, par la déclaration conjointe du REFRAM et du RIARC sur le renforcement du dialogue entre les régulateurs et les grandes plateformes en ligne sur le continent africain et dans l’espace francophone et, d’autre part, par le protocole d’engagement volontaire endossé par quatre grandes plateformes (Meta, Google, TikTok et X). 

Ces quatre plateformes se sont ainsi engagées à prendre des mesures destinées à :

  • assurer une plus grande transparence et proximité pour les utilisateurs et les chercheurs, notamment francophones ;
  • assumer plus avant leurs responsabilités en matière de modération des contenus ;
  • contribuer à mieux protéger les sociétés et les espaces informationnels francophones et africains des risques liés à l’utilisation de leurs services ;
  • mettre en œuvre un cadre de dialogue régulier avec les régulateurs, favorisant le suivi de ces engagements.

La présente note a pour objet de présenter un premier état synthétique des moyens et des pratiques mis en place par ces grandes plateformes sur le continent africain, en particulier dans les pays francophones. Elle a été réalisée à partir des réponses des plateformes au questionnaire préparé par le secrétariat permanent du REFRAM et des informations partagées par les plateformes lors d’une réunion technique du Forum organisée à Paris le 11 juillet 2025, dans le cadre de la démarche de coopération prévue par le protocole d’engagement volontaire d’Abidjan. 

L’implication des plateformes dans le cadre de ce processus, en faveur d’une coopération avec les autorités de régulation, d’une transparence et d’une assistance vis-à-vis des usagers (incluant une offre linguistique adaptée pour ce faire) est à souligner (1).

Des dynamiques plus contrastées selon les plateformes sont relevées en matière de lien avec la société civile et le monde de la recherche, comme en matière d’ancrage territorial (2). Des marges de progrès sont identifiées dans les domaines de la modération de contenus et de la protection des mineurs (3).

1-Une mise en œuvre globalement satisfaisante de certains engagements par les plateformes : coopération avec les autorités de régulation, outils de transparence et d’assistance aux utilisateurs

La volonté réaffirmée par les plateformes en faveur du renforcement de la coopération avec les autorités de régulation des médias, de la mise à place de mesures de transparence et permettant une bonne relation avec les usagers, est à souligner. 

Une volonté réaffirmée de coopérer avec les autorités de régulation  

La plupart des plateformes ont effectivement établi des contacts avec des autorités de régulation en Afrique francophone et anglophone, et disposent de points de contact sur le continent selon une organisation territoriale par zones. Trois d’entre elles ont des équipes dédiées à l’Afrique francophone et souhaitent renforcer la structuration d’un dialogue de haut niveau avec les autorités de régulation. La quatrième plateforme affirme rester disponible pour toute demande exprimée par les régulateurs africains, ses ressources humaines n’étant pas dimensionnées à ce stade pour lui permettre une présence sur l’ensemble des continents. 

Les plateformes indiquent que les échanges avec les régulateurs portent en particulier sur la modération des contenus, la transparence avec les utilisateurs et les actions d’éducation aux médias.

Des outils de transparence en relative adéquation avec l’impératif de diversité culturelle et linguistique

L’ensemble des plateformes participantes indiquent permettre aux utilisateurs d’accéder en français, en anglais, voire pour certaines dans d’autres langues, aux informations relatives aux conditions générales d’utilisation, standards de communauté, fonctionnalités, modalités de sûreté des services ou décisions de modération les affectant. A ce titre, elles s’inscrivent en cohérence avec les engagements volontaires du protocole d’Abidjan.

Les informations relatives aux politiques de Meta sont par exemple disponibles en vingt-deux langues africaines à travers le continent, tandis que les services de Google sont pour leur part accessibles en kiswahili, afrikaan et isizulu. Concernant leurs moyens de modération, les plateformes indiquent disposer d’équipes francophones et anglophones, et recourir également à des outils d’intelligence artificielle en langue française.

En outre, le développement de l’intelligence artificielle permet ou permettra, selon les plateformes, de contribuer à effacer des barrières linguistiques, également dans l’explication des fonctionnalités et politiques des services aux utilisateurs avec le développement de robots conversationnels (chatbot) à l’instar de celui proposé par X. Néanmoins, compte tenu des coûts de développement de ce type d’outils linguistiques, il pourrait être utile de prioriser certaines langues de traduction en s’appuyant sur les indications des régulateurs.

Enfin, il est observé que les rapports de transparence globaux des plateformes ne sont pas nécessairement rédigés en français ou dans des langues africaines, ni ne couvrent spécifiquement les régions ou sous-régions du continent africain.

 

RECOMMANDATIONS

Établir un dialogue entre plateformes et régulateurs sur la priorisation du développement des services dans les langues utilisées dans les pays africains (conditions générales d’utilisation, centres d’assistance en ligne)

S’assurer de la disponibilité des rapports de transparence globaux des plateformes en français ou dans les langues utilisées dans les pays africains, et renforcer leur granularité géographique


Un souci affiché de transparence et d’assistance avec les utilisateurs

Des mesures de transparence et d’assistance auprès des usagers ont effectivement été mises en place par les plateformes concernant leurs services sur le continent africain, notamment dans l’espace francophone.

Les quatre plateformes proposent des centres d’assistance en ligne, soit sur leur site web, soit inclus dans leurs applications. Ces centres mettent à disposition des utilisateurs les conditions d’accès aux services (paramétrage de comptes), des informations de sécurité et de confidentialité, et des FAQ.

Les conditions générales d’utilisation (CGU) des services, correspondant également à leurs standards de communauté, et leurs principes de modération sont disponibles en français et en anglais, voire dans d’autres langues du continent, et sont a priori facilement accessibles.

Les utilisateurs de l’ensemble des plateformes sont informés des décisions de modération les affectant. Toutes les plateformes ne semblent cependant pas systématiquement communiquer aux usagers les motifs des décisions de retrait de leurs contenus.Ces décisions ne sont en outre pas toujours notifiées ou affichées dans le fil d’actualité. Lesréponses des plateformes restent également imprécises sur le caractère systématique de l’énoncé des voies de recours contre leurs décisions et sur les modalités de celles-ci.

Des outils de signalement des contenus illicites sont intégrés aux services des plateformes. Ils peuvent être activés par les utilisateurs pour les quatre plateformes et par les autorités de régulation dans le cas d’une plateforme (Meta). 

 

RECOMMANDATIONS

Renforcer la bonne information des utilisateurs concernant les décisions de modération les affectant (motifs et voies de recours) ainsi que les outils de signalement de contenus illicites

Poursuivre le dialogue entre grandes plateformes et régulateurs sur les perspectives de progrès de leurs outils de modération et de signalement


2-Une mise en œuvre plus contrastée d’autres engagements selon les plateformes : liens avec la société civile et la communauté universitaire

Les relations des plateformes avec les organisations de la société civile et la communauté universitaire apparaissent plus contrastées. Ces différences semblent, dans une certaine mesure, correspondre à des ancrages ou maillages territoriaux distincts.

Des liens avec les organisations de la société civile pouvant être approfondis

Le développement de partenariats avec des organisations de la société civile poursuit des dynamiques et des degrés de structuration contrastés selon les plateformes et les zones géographiques.

Trois plateformes ont structuré un dialogue avec des associations, organisations non gouvernementales et experts africains, dans le cadre de réseaux de signaleurs de confiance[1] (dans l’esprit du Règlement européen sur les services numériques), de consultations ou de groupes de travail. Ces derniers visent à affiner les politiques de sûreté et de sécurité, notamment en faveur de la protection des mineurs.

Ces initiatives semblent néanmoins être relativement récentes pour la plupart, dispersées géographiquement et particulièrement concentrées en Afrique non francophone.

Google se distingue par son implication dans des partenariats en matière de vérification des faits (avec Africa Check, Full Fact, PesaCheck), notamment en période électorale (coalition de vérification des faits électoraux avec Africa Check), de formation des journalistes et éditeurs (formation des éditeurs de presse à l’IA au Kenya), de développement des compétences numériques (formations à destination des jeunes et des entrepreneurs via la Hustle Academy), de recherche et développement ou de partenariats institutionnels régionaux.

Meta a plus particulièrement pris part à des forums sur les enjeux numériques et mis en place un groupe de travail avec des organisations de la société civile sur les évolutions législatives et les restrictions de contenus demandées par les gouvernements. Enfin, TikTok a récemment développé des initiatives similaires tels que des conseils consultatifs, mobilisant des experts du monde universitaire et des jeunes sur ses politiques de sécurité[2].

 

RECOMMANDATIONS

 

Poursuivre le développement de partenariats entre les plateformes et les organisations de la société civile dans l’espace francophone

S’assurer que les actions en faveur de l’inclusion et de la citoyenneté numérique puissent bénéficier à l’ensemble des Etats dont sont issus les membres du REFRAM et du RIARC 


Des liens avec la communauté universitaire, notamment francophone, pouvant être renforcés

Trois plateformes indiquent rendre accessible au grand public et aux chercheurs certaines de leurs API (interfaces de programmation), modèles d’intelligence artificielle en source ouverte et jeux de données. Il peut s’agir de bibliothèques de contenus, de publicités, de recherches effectuées par les utilisateurs et de modèles d’intelligence artificielle de traduction, notamment de langues africaines. L’accès des chercheurs à ces données semble reposer sur une démarche proactive de leur part et être conditionné à une demande préalable auprès d’un tiers[3].

Les projets mentionnés par les plateformes sont particulièrement axés sur le soutien à la recherche dans des structures privées d’innovation – telles que les start-ups – qui peuvent parfois associer des chercheurs universitaires. Quelques partenariats sont plus directement structurés avec des universités. Meta a, par exemple, mis en place la bourse Llama Impact Grant, en partenariat avec Data Science Africa, à destination des chercheurs et des startups d’Afrique subsaharienne pour soutenir des projets innovants et à impact social, en utilisant leurs modèles d’IA en source ouverte. Google possède des centres de recherche en intelligence artificielle dans la région et a conclu des accords de recherche avec des universités situées au Ghana, en Ouganda, au Sénégal et avec d’autres instituts de recherche sur le continent.

Deux plateformes n’ont à ce jour fait état d’aucun partenariat avec le monde de la recherche sur le continent, même si c’est une perspective affirmée pour l’une d’entre elles.

 

RECOMMANDATION 

Amorcer ou poursuivre le développement des partenariats des plateformes avec la communauté universitaire africaine, notamment francophone

Etudier et définir des processus d’accès transparents et ouverts des chercheurs aux données des plateformes 

3-Des perspectives de progrès : modération des contenus, protection des mineurs

Une intensification des efforts des plateformes dans les domaines de la modération des contenus et de la protection des mineurs est à soutenir.

Des moyens et méthodes de modération pouvant être clarifiés et renforcés

Les réponses des plateformes au questionnaire ne permettent pas d’avoir un ordre de grandeur précis des moyens humains dédiés à la modération sur le continent africain et dans l’espace francophone, ni des précisions sur leur localisation géographique. Des effectifs mondiaux sont toutefois transmis par plusieurs plateformes et se caractérisent par une grande hétérogénéité.

Si toutes indiquent disposer d’équipes consacrées à la modération de contenus francophones et anglophones permettant d’agir en continu au niveau mondial, seuls Meta et Tiktok affirment disposer d’une équipe dédiée au continent africain susceptible de permettre une prise en compte des contextes culturels et linguistiques.

Le renforcement de leurs moyens humains de modération sur le continent africain ne semble pas être une perspective de court terme pour les quatre plateformes, ces dernières invoquant l’adéquation de leurs effectifs avec les besoins et misant sur le développement de capacités d’intelligence artificielle.

Si toutes les plateformes mettent en place des mécanismes de signalement des contenus illicites pour leurs utilisateurs et de recours contre les décisions de modération4, intégrés à leurs interfaces ou centres d’assistance, leurs délais de procédure et de traitement gagneraient à être précisés. Seul TikTok mentionne un délai de traitement des recours de 24h.

L’ensemble des plateformes a recours à l’intelligence artificielle dans les processus de modération de contenus afin d’améliorer la détection et la suppression rapide de contenus illicites ou contraires à leurs politiques[4]. Cet usage est articulé avec des contrôles humains pour affiner les décisions finales, notamment dans les cas de contestation des décisions de modération, afin d’éviter en particulier le caractère potentiellement discriminatoire ou arbitraire de celles-ci. Seul Meta indique effectuer des audits réguliers pour veiller à limiter les risques de discrimination et d’arbitraire de ses décisions de modération. Une plateforme ne donne aucune information sur des mécanismes permettant d’éviter les effets discriminatoires ou arbitraires de ses décisions de modération.

 

RECOMMANDATIONS 

Fournir des éléments chiffrés sur les moyens alloués à la modération des contenus et leur répartition géographique, ainsi que sur les délais de traitement, afin de permettre d’évaluer l’efficacité des politiques de modération

Mettre en place ou renforcer les processus limitant les risques d’arbitraire des décisions de modération des plateformes 

Des mesures visant à assurer la confidentialité, la sûreté et la sécurité des mineurs pouvant être renforcées[5]

Les plateformes indiquent avoir mis en place des dispositifs destinés à la sûreté et à la sécurité des mineurs, particulièrement axés sur l’adaptation des fonctionnalités de leurs services selon l’âge des utilisateurs. Trois d’entre elles précisent que ces enjeux sont au cœur de leurs préoccupations, tandis qu’une autre considère que son service n’est pas spécifiquement dédié aux mineurs.

L’ensemble des plateformes interdit l’accès des mineurs de moins de 13 ans à leurs services dans leurs conditions générales d’utilisation et a mis en place des modalités d’accès et des fonctionnalités de compte restreintes pour les mineurs plus âgés. Les fonctionnalités des services permettent de configurer les comptes comme privés, de désactiver la messagerie directe et les commentaires pour les utilisateurs qui ne sont pas « amis » avec le mineur, et dans le cas de trois des plateformes (Meta, TikTok et X), d’associer des mécanismes de contrôle parental permettant d’agir sur le temps d’écran, les filtres de contenus et la confidentialité.

Le contrôle de l’âge repose cependant, comme partout ailleurs, essentiellement sur la date de naissance déclarée par l’utilisateur. Des mécanismes de vérification plus opérants ne sont utilisés qu’à la marge.Sur les services de Meta et X, lorsque l’âge déclaré initialement par l’utilisateur est inférieur à l’âge limite (13 ans), la date de naissance ne peut être modifiée par l’utilisateur, à moins d’effectuer des selfies vidéo permettant d’estimer son âge. Meta et Google mettent en œuvre certains dispositifs de contrôle plus poussés, exigeant la preuve d’une carte de crédit ou d’identité pour permettre le visionnage de vidéos à destination des majeurs sur YouTube (Google) par exemple.

A noter que certaines plateformes affirment dialoguer avec des organisations de la société civile et acteurs institutionnels sur ces sujets.

Meta et Google proposent et prennent part, par ailleurs, à des programmes d’éducation aux médias et au numérique destinés aux jeunes sur le continent africain. Par exemple, Meta a développé un programme d’éducation aux médias en ligne, Mon univers digital, visant à toucher un million de jeunes, parents et enseignants et organise des sessions dans des écoles, touchant à ce jour cent cinquante mille jeunes.

 

RECOMMANDATIONS 

Renforcer l’évaluation et l’efficacité des mécanismes de vérification de l’âge mis en place par les plateformes à un rythme uniforme selon les continents

Mener des actions d’éducation aux médias et au numérique à destination du jeune public, des parents et de la communauté éducative sur le continent africain 

[1] Pour Meta : le programme de Partenaires de confiance. Pour Google : les ONG et experts en matière de vérification des faits, détaillés ci-dessous, ont un rôle semblable. Pour TikTok : le réseau de partenaires communautaires, à l’échelle globale.

[2] Le conseil consultatif sur la sécurité en Afrique subsaharienne et le conseil mondial de la jeunesse, créés en 2024, organisent la consultation d’experts du monde universitaire et des jeunes du Kenya, Cameroun et Nigéria sur les politiques de sécurité. La plateforme s’appuie également sur un réseau de partenaires communautaires à l’échelle globale permettant aux ONG d’effectuer des signalements de contenus illicites. 

[3] Par exemple, pour la bibliothèque de contenus de Meta, cette demande se fait via le Consortium Interuniversitaire pour la Recherche politique et sociale (ICPSR) de l’Université du Michigan par exemple.

[4] A titre d’exemple, Google indique que 96 % des contenus supprimés sur YouTube sont détectés par l’IA et que 80 % le sont avant d’avoir généré 10 vues.

[5] Cette nécessité n’est pas spécifique au continent africain. 

Actualités

Actualités
Autres documents 02-12-2025

Synthèse des actions des grandes plateformes en ligne suite au protocole d’engagement volontaire d'Abidjan

Soucieux de contribuer au développement d’un espace numérique sûr et de confiance, respectueux de la démocratie et des droits de l’Homme et favorisant la diversité culturelle et linguistique, le Résea...

Autres documents 28-08-2025

Protocole d’engagement volontaire des grandes plateformes en ligne avec le REFRAM et le RIARC

À l’issue des échanges intervenus durant la quatrième session de la Conférence d’Abidjan à laquelle participaient les représentants des grandes plateformes en ligne, un protocole d’engagement volontai...