Le marketing politique nous envahit. Les législations pour encadrer ces pratiques diffèrent selon les cultures des États. Mais quelle responsabilité pour nous tous, utilisateurs, médiateurs, créateurs de contenus ?

Le 20 novembre 2016, François Fillon triomphait au premier tour de la primaire de la droite et du centre, avec plus de 44 % des suffrages exprimés. Alors que vingt-deux sondages réalisés entre le 9 septembre et le 15 novembre par divers instituts annonçaient à l’unisson Alain Juppé en tête, le 18 novembre, Ipsos publie un dernier sondage choc : Fillon passe devant Juppé, deux jours avant le scrutin ! Ces résultats concordent avec l’envolée d’une campagne de diffamation sur Internet à l’encontre du maire de Bordeaux.

Depuis la fin septembre, la twittosphère découvre le mot « Ali Juppé » en cascade, partagé avant tout par les sympathisants de l’ex-Front National suivis des… sarkozystes et fillonistes. Entre le 6 et le 20 novembre, le nombre de recherches sur Google du mot-clé « Ali Juppé » est multiplié par 25. En Franche-Comté, où l’on a cherché le mot-clé deux fois plus que dans n’importe quelle autre région, les votes en faveur de François Fillon surpassent de 5 à 12 points1 par département le score national du candidat.

Il va de soi que la défaite d’Alain Juppé ne s’explique pas par la seule intervention de cette campagne maligne. On ne peut néanmoins occulter les corrélations entre les intentions de vote et la viralité de la campagne d’intoxication diffusée sur Internet. Comme l’explique Delphine Marion-Boulle dans son enquête2, « Ali Juppé, grand mufti de Bordeaux, la véritable histoire d’une fake news », le surnom a été créé à la rigolade par une chapelle d’extrême droite, avant d’être repris par différents groupes hyperpartisans via des chaînes de messages en ligne. Avec de telles méthodes, l’information est transmise rapidement et elle atteint un auditoire vaste et passif. Loin d’avoir vocation à convaincre, ces campagnes de diffamation sèment le doute, augmentent le degré d’incertitude et attisent la confusion auprès d’un électorat déjà sceptique et désengagé.

Avant Internet, diffamation et propagande existaient. Alors comme aujourd’hui, nous en étions responsables, nous, les utilisateurs, les citoyens, les élus, les représentants de partis politiques, et les dirigeants d’entreprises privées. À l’origine de la création de l’information virale et néfaste, des groupes hyperpartisans ou des acteurs commerciaux surfent sur la fragmentation de nos sociétés et sur la polarisation de nos élites. Pendant que les acteurs privés acceptaient la diffusion de publicités fallacieuses, les pouvoirs publics ne régulaient pas la création et la transmission de l’information. C’est donc à tort, que l’on impute à la technologie la responsabilité des maux dont souffrent nos sociétés. La technologie ne parle pas d’elle-même, nous lui donnons sa voix, puis sa portée nous échappe. La crise de l’information est avant tout politique, sociale et institutionnelle — la technologie agit en catalyseur, puissant et terriblement efficace.

UBÉRISATION DES MÉDIAS TRADITIONNELS

La voix des médias traditionnels ne parle plus au-dessus de la mêlée, elle participe plutôt du même flux d’information et se mélange sur Facebook ou Twitter à l’avis de chacun. Ces médias traditionnels ont été ubérisés — sur Internet, le coût de publication est nul, la diffusion de la publication est instantanée, et la portée de la diffusion est mondiale. L’information se recueille à distance, est soumise au prisme de chacun, et se répand au rythme des événements. On est loin du credo journalistique sur l’information à la source, neutre et vérifiée. L’information virale et non filtrée, lorsqu’elle est fausse, a prouvé sa force d’influence et, parfois, sa violence.

Les processus de diffusion sont petit à petit mis en évidence, quoiqu’il soit difficile d’en saisir l’ampleur exacte sur l’électorat. Le marketing politique ou la propagande électorale participe de la désinformation massive par le biais de groupes partisans ou hyperpartisans. Sur les réseaux sociaux, cette pratique a pris une ampleur sans précédent. Un Français sur trois qui s’informe sur Internet considère les réseaux sociaux comme sa source primaire d’information3. Internet est donc le nouveau terrain d’action pour cibler l’électeur. Les données collectées sur les utilisateurs au cours de leur activité en ligne permettent de « deviner » leur appartenance sociale, leur opinion politique, leur lieu de résidence principal, de villégiature… et ainsi de mieux cibler une audience sensible à un message politique. En 2016, aux États-Unis, les campagnes démocrate et républicaine ont à elles deux dépensé plus de 80 millions de dollars pour opérer des publicités ciblées sur Facebook4.

Là où l’on démarchait les électeurs au porte- à-porte selon les directives des responsables de campagne, on est à présent capable d’analyser les comportements électoraux et les caractéristiques sociodémographiques de certains groupes, et d’aller au-devant des foyers tangents. À l’instar d’eXplain, en contrat avec La République en Marche (LREM) lors des dernières élections présidentielles, un marché florissant se spécialise dans l’optimisation de l’action militante via une meilleure connaissance des dynamiques territoriales.

Pour autant, le marketing électoral ne s’arrête pas au démarchage assumé. Il s’insère sur Internet dans le contenu organique que l’utilisateur consomme : impossible, alors, de détecter la publicité politique sur le fil d’actualité et, donc, impossible de reconnaître que l’on est ciblé par une campagne. Cette réalité pose une importante question quant à la liberté de penser des utilisateurs ciblés à leur insu.

Tout d’abord, l’identité du compte à l’origine de l’information peut être trompeuse. Des groupes hyper-partisans et des comptes automatisés depuis l’étranger sont, par exemple, à l’origine d’une partie de la désinformation. Plus de trois mille huit cents comptes automatisés (bots) d’origine russe auraient diffusé plus de neuf millions de tweets depuis 20095. Ces comptes, particulièrement actifs autour de la campagne présidentielle américaine de 2016, ont partagé du contenu visant à générer l’instabilité aux États-Unis en déstabilisant Hillary Clinton la candidate, puis Donald Trump le président — plus de la moitié des publicités payées par les Russes ont en effet été publiées sur Facebook après l’élection.

LES CLONES DE LA PENSÉE SE RALLIENT SUR LE NET

Ensuite, les règles de décision algorithmique selon lesquelles un utilisateur est exposé à un contenu sont opaques. En effet, les ingénieurs de Facebook optimisent le fil d’actualité de chaque utilisateur avec un contenu avec lequel il est le plus susceptible d’interagir. De ce mécanisme naissent des groupes polarisés, ralliés algorithmiquement autour de contenus organiques similaires. L’homophilie atavique est amplifiée sur les réseaux sociaux — des groupes constitués d’individus semblables construisent une réalité relative et se convainquent qu’elle est vérité absolue et mondiale. Chaque chapelle devient graduellement plus intolérante à la différence d’opinion. Les terrains de débat d’idées se raréfient et un relativisme ambiant tend à mettre sur le même plan la voix du sachant et de l’ignorant.

La nature particulière du discours politique rend toute régulation délicate. Une opinion, aussi fausse soit-elle, n’est pas condamnable. Tout l’enjeu est donc de trouver le juste milieu entre la liberté de parole et la censure de l’opinion. Le modèle libéral américain met l’emphase sur la liberté d’expression, et a favorisé, jusqu’à récemment, l’expression libre et non régulée de l’opinion. L’ennui, avec ce genre de cadre législatif, c’est que les fausses informations sont souvent plus attractives que les véritables nouvelles6 : des campagnes de diffamation peuvent sévir en toute impunité et des micro communautés en ligne partageant les mêmes idées renforcent leur opinion et leur extrémisme au contact les unes des autres. Qui est responsable quand l’extrémisme débarque sur les réseaux ? Les réponses sont sans doute plurielles : les utilisateurs et leur esprit critique, les dirigeants des plateformes qui n’agissent pas et, bien sûr, les pouvoirs publics qui ne prennent pas la mesure du phénomène.

À l’inverse, la législation allemande a opté en 2018 pour une réglementation stricte, obligeant les plateformes de plus de deux millions d’utilisateurs à supprimer les contenus signalés et clairement criminels selon la justice allemande en moins de 24h. Un contenu signalé qui n’est pas clairement criminel doit être observé sous sept jours. Par ailleurs, Mark Zuckerberg, dirigeant fondateur de Facebook, a décidé de réguler les contenus incitant à la haine sur Facebook depuis que sa plateforme est au cœur du scandale des élections présidentielles américaines influencées par les réseaux sociaux. Le professeur d’Harvard Yochai Benkler signale dans son livre Network Propaganda que le danger de ces régulations est que les plateformes font des choix conservateurs pour éviter les amendes. Faisant le choix de la bien-pensance, elles risquent d’opérer davantage comme un censeur que comme un modérateur. Le débat a besoin d’être enrichi de points de vues divergents, et il est évidemment dangereux d’avantager la doxa d’un groupe privé dirigeant un réseau social au lieu d’encourager un débat ouvert et tolérant.

Mais voilà, quels exemples de débat fructueux, ouverts et tolérants donnons-nous ? Comme les accusateurs de Socrate, nous traînons en procès diffamatoire ceux qui incitent à la réflexion, nous laissons place à ceux qui diffament parce que la liberté anarchique n’a pas de limite. À force d’écoute et de remise en cause, nous avons le pouvoir de faire émerger une voie plus ouverte et de prôner la discussion et l’échange transsociétaux. Les élites, les médias ont un devoir d’exemplarité, et se doivent d’inciter les électeurs et lecteurs à cultiver leur esprit critique tout en écoutant et acceptant des points de vue qui ébranlent leurs idées reçues. Avec un socle de valeurs communes, les opinions devraient être débattues et enrichies.

Si nous ne faisons rien, d’autres dangers menacent à notre porte. Le scandale de Cambridge Analytica a montré que des entreprises travaillent sur le profilage d’utilisateurs afin de diffuser des contenus vidéo déclinés sous différentes versions pour s’adapter à la personnalité de chacun et l’inciter à voter pour un candidat. Les plateformes ont déjà commencé à renforcer leur vigilance quant à la régulation du contenu organique. Aujourd’hui, il est essentiel que ces sociétés garantissent une vision du monde équilibrée et représentative à chaque utilisateur, sans verser dans une bien-pensance aux allures de censure. Les médias, quant à eux, se doivent de développer une offre adaptée à Internet qui se différencie des plateformes, des blogueurs et des influenceurs. Reconstruire la crédibilité des médias se fera auprès d’un segment qui n’est pas celui de la plateforme participative, ni celui du breaking news. Il est du devoir des pouvoirs publics de ne pas baisser les bras devant le paradoxe de la régulation du contenu en ligne, et d’éduquer leurs citoyens au monde digital. Enfin, les utilisateurs, nous tous, sommes au cœur de cette grande machinerie. Nous avons la responsabilité de nous faire violence pour considérer d’autres points de vues d’avoir un esprit critique et, enfin, de faire œuvre d’artiste au sens camusien : « les vrais artistes ne méprisent rien ; ils s’obligent à comprendre au lieu de juger ».

 

  1. Politoscope, Avril 2017.
  2. Fondation Jean‑Jaurès, Delphine Marion‑Boulle.
  3. Jérôme Fourquet et Jean-Philippe Dubrulle, Enquête sur le complotisme, Fondation Jean‑Jaurès, Janvier 2019.
  4. Committee Hearing on Social Media Influence in the 2016 US elections, 1er Novembre 2017.
  5. Aja Romano, Twitter released 9 million tweets from one Russian troll farm. Here’s what we learned, Vox, 19 Octobre 2018.
  6. Soroush Vosoughi, Deb Roy, Sinan Aral, The spread of true and false news online, SCIENCE, 9 Mars 2018.
Partager :