Cambridge Analytica évoque moins une start‑up de la tech qu’un signal d’alarme mondial. Sous le vernis d’outils de campagne high‑tech, quelque chose d’inquiétant s’est glissé dans les coulisses numériques.
Des quiz psychologiques proposés comme de simples divertissements ont permis de collecter, à grande échelle, des fragments de vie intime. Ces données, recoupées et modélisées, alimentent l’exploitation des profils numériques, nourrissent des stratégies d’ingérence dans les processus démocratiques et débouchent sur un vaste scandale des données personnelles exposé tardivement, lorsque les mécanismes de ciblage avaient façonné des messages taillés au millimètre.
Des tests de personnalité aux profils électoraux : le basculement discret d’un jeu en apparence innocent vers une vaste base de données politiques
Cambridge Analytica s’est appuyée sur des questionnaires ludiques conçus par le psychologue Aleksandr Kogan et diffusés via une application Facebook rémunérant chaque participant 1 $ ou 4 $. Sous couvert d’étude académique, ces tests de personnalité sur Facebook aspiraient réponses, mentions j’aime et réseau d’amis pour relier traits psychologiques, habitudes déclarées et présence sociale à grande échelle.
Quand 305 000 personnes ont téléchargé l’application thisisyourdigitallife, le programme a aspiré non seulement leurs réponses, mais aussi les données de leurs amis, jusqu’à couvrir 87 millions de comptes dont 70,6 millions aux États‑Unis. À partir de cette masse, Cambridge Analytica a poursuivi la construction de bases électorales ultra segmentées, faisant correspondre profils psychographiques supposés, codes postaux, habitudes de consommation et histoire de vote, avant de monnayer cette vaste commercialisation de données psychologiques auprès de campagnes cherchant des cibles précises à persuader.
Comment l’application thisisyourdigitallife a-t-elle siphonné les données de millions d’utilisateurs à leur insu ?
L’application thisisyourdigitallife s’affichait comme un test de personnalité payé, mis en ligne par le chercheur Aleksandr Kogan via Facebook. Sous ce vernis académique, le questionnaire ouvrait la voie à une collecte massive de données : âge, sexe, localisation, centres d’intérêt et identifiant Facebook. Entre 2013 et 2015, près de 305 000 personnes ont validé l’installation, ignorant que leurs réponses alimenteraient Cambridge Analytica et ses modèles électoraux.
Au moment où l’utilisateur cliquait sur « accepter », un écran d’autorisation standardisé apparaissait. Cette interface donnait en réalité à une autorisation accordée à une application tierce l’accès à une large part du profil. Les connexions aux API Facebook facilitaient une vaste aspiration des profils Facebook, étendue à des dizaines de millions de comptes. La plateforme a reconnu jusqu’à 87 millions d’utilisateurs touchés, dont environ 70,6 millions basés aux États‑Unis.
Le saviez-vous : à partir d’environ 305 000 installations de l’application, les données de près de 87 millions de comptes Facebook ont été exposées, dont plus de 70,6 millions d’utilisateurs américains, selon les propres chiffres publiés par la plateforme.
Un questionnaire anodin, un accord confus et une autorisation bien plus large qu’il n’y paraît
Le formulaire psychologique proposé par thisisyourdigitallife posait des questions banales sur la personnalité, la vie quotidienne ou les préférences politiques apparentes. L’écran d’accord Facebook faisait défiler des mentions techniques peu lisibles, ce qui revenait à des conditions d’utilisation opaques pour quiconque cliquait sur « continuer ». Dans ces circonstances, parler d’un consentement utilisateur biaisé n’a rien d’exagéré : les personnes pensaient contribuer à une étude universitaire, pas alimenter une société de conseil électoral, et aucune information claire n’indiquait que leurs réponses serviraient à du ciblage politique.
Les amis des utilisateurs pris dans la nasse : la viralité silencieuse de la collecte
Le mécanisme le plus problématique tenait au fonctionnement de Facebook à cette époque. Lorsque l’on acceptait l’installation de l’app, les API permettaient d’exploiter un puissant effet de diffusion sur la plateforme ; les données des amis étaient aspirées, sans action de leur part. Ce effet viral de la plateforme signifiait que liste d’amis, « likes » et informations de profil pouvaient remonter vers Cambridge Analytica, créant une exposition involontaire des amis à la collecte. À partir de centaines de milliers d’installations, les informations d’environ 87 millions de comptes, dont près de 1,1 million au Royaume‑Uni, ont été agrégées à leur insu.
Du laboratoire de psychologie à l’arme électorale : le profilage psychographique au cœur du scandale
Au départ, les données aspirées via Facebook étaient présentées comme un matériau neutre pour des travaux universitaires en psychologie. Derrière cette façade, Cambridge Analytica les transformait en modèles prédictifs destinés à lire les traits de caractère à partir des « likes » et d’innombrables traces numériques. Ce profilage psychographique des électeurs s’appuyait sur le modèle OCEAN et sur des fichiers socio‑démographiques, jusqu’à revendiquer près de 5 000 points d’information pour chaque personne analysée.
Les profils produits servaient à tester des messages émotionnels, puis à repérer les catégories d’électeurs considérées comme hésitantes. Une segmentation fine des audiences permettait d’associer à chaque groupe des récits, images ou slogans calibrés sur ses peurs et ses espoirs. Ce dispositif alimentait un ciblage comportemental politique cherchant à influencer le vote ou à encourager l’abstention de segments précis ; parmi les procédés utilisés, on retrouvait :
- Le croisement de données Facebook avec des bases commerciales et des registres électoraux pour enrichir chaque profil psychologique.
- Des tests A/B massifs sur des milliers de variantes de messages afin d’identifier les formulations les plus affectives.
- L’usage de « dark ads » sur les réseaux sociaux, invisibles au reste du public, pour diffuser des messages personnalisés à des micro‑groupes.
- La création de narrations ciblées, jouant sur la peur de l’insécurité, le sentiment de déclassement ou le rejet des élites selon les segments visés.
Jusqu’où Cambridge Analytica a-t-elle franchi les lignes rouges du droit de la protection des données ?
Les révélations sur Cambridge Analytica décrivent un glissement, tests ludiques aux fichiers politiques sur les données Facebook. À partir d’une application installée par environ 305 000 personnes, la société a exploité les failles du réseau pour atteindre un non-respect protection données visé par le droit, en profilant près de 87 millions d’utilisateurs, sans autorisation.
Les enquêtes menées aux États-Unis, au Royaume-Uni et dans l’Union européenne ont montré que Cambridge Analytica utilisait des données Facebook pour un ciblage politique massif, sans information loyale donnée aux personnes concernées. Ces constats ont justifié des amendes et sanctions autorités régulation, reprochant à la société des pratiques commerciales trompeuses et une opacité sur les transferts.
À retenir : l’ICO britannique a infligé à Facebook une amende de 500 000 livres pour son rôle dans l’accès aux données par Cambridge Analytica, tandis que la FTC américaine a confirmé en 2021 la responsabilité de la société pour violation du droit fédéral.
Aux États-Unis, les griefs de la FTC pour pratiques trompeuses et collecte déloyale
Aux États-Unis, la Commission fédérale du commerce a poursuivi Cambridge Analytica pour avoir trompé les utilisateurs de Facebook sur la nature des données collectées et leur usage politique. La plainte vise l’application de recherche développée par Aleksandr Kogan, mais aussi l’ex‑PDG Alexander Nix, accusés d’avoir assuré que l’outil ne collectait aucune information identifiable alors qu’il enregistrait les identifiants Facebook et les likes associés. Dans sa décision administrative rendue en 2021, la FTC a estimé que ces agissements constituaient une violation de l’FTC Act article 5, qui interdit les pratiques déloyales, en pointant notamment des déclarations trompeuses aux consommateurs sur l’anonymat prétendu des données, leur exploitation politique et la participation au dispositif Privacy Shield.
En Europe, le prisme du RGPD et la question du détournement de finalité
En Europe, les autorités de protection des données ont relu l’affaire Cambridge Analytica à travers les principes du RGPD, même si une partie des faits est antérieure à son entrée en vigueur. Les régulateurs ont souligné l’absence de base légale traitement pour utiliser des données récoltées via un test de personnalité à des fins de publicité politique, ainsi que le détournement finalité données entre la recherche académique affichée et le ciblage électoral réel. Les analyses de la CNIL et d’ONG comme Privacy International insistent aussi sur le manque de transparence, l’impossibilité pour les personnes concernées d’exercer leurs droits et la difficulté à retracer complètement les flux de données exportées hors de l’Union.
Au Royaume-Uni, les enquêtes de l’ICO et les limites du droit électoral
Au Royaume‑Uni, l’Information Commissioner’s Office a joué un rôle central pour éclairer le rôle de Cambridge Analytica et de sa maison mère SCL Elections. Ses investigations ont mis au jour un usage opaque de données provenant de Facebook par des campagnes liées au Brexit, au croisement entre infractions droit électoral et violation de la loi sur la protection des données, ce qui a entraîné un renforcement du contrôle autorités britanniques sur les prestataires politiques. L’ICO a recommandé une modernisation du cadre électoral, jugé mal adapté aux micro‑ciblages numériques, et a critiqué le manque de traçabilité des dépenses en publicité politique en ligne, point sensible mis à nu par cette affaire de profilage massif.
Mensonges, zones d’ombre et promesses de conformité : un récit de tromperies répétées vis-à-vis du public et des autorités
Lorsqu’elle se présente au public, Cambridge Analytica décrit une entreprise high-tech capable d’analyser des données politiques tout à fait licites. Derrière ce vernis, les révélations de Christopher Wylie et d’autres lanceurs d’alerte montrent une réalité plus trouble, où la fuite de 87 millions de profils Facebook est minimisée ou recadrée.
Dans les documents transmis aux clients et aux autorités, la société prétend que les données ont été obtenues légalement auprès du chercheur Aleksandr Kogan. Ces affirmations relèvent de fausses déclarations de conformité, car Cambridge Analytica connaissait les limites des consentements donnés sur Facebook et entretenait une communication publique manipulatrice sur l’ampleur des profils collectés. Les procédures engagées par la FTC ont aussi mis en cause l’opacité sur l’origine des données et les promesses de suppression qui n’ont jamais été tenues.
Note : en 2019, la faillite de Cambridge Analytica n’a pas effacé les poursuites, et la décision finale de la FTC en 2021 décrit un schéma de tromperie systématique autour des données Facebook.
Les campagnes ciblées ont-elles réellement pesé sur Trump, le Brexit et d’autres scrutins à travers le monde ?
Aux États‑Unis, Cambridge Analytica revendique un rôle central dans la campagne présidentielle de Donald Trump en 2016. La base issue de Facebook aurait couvert jusqu’à 70,6 millions d’Américains, utilisée pour segmenter l’électorat et affiner les déplacements du candidat dans certains États clés.
Pour convaincre les financeurs, l’entreprise met en avant sa capacité à tester des variantes publicitaires sur Facebook. Elle décrit alors le microciblage des messages politiques, censé faire basculer des milliers de votes dans des États disputés ou lors du référendum sur le Brexit, où près de 1,1 million de comptes auraient été exploités. Des travaux universitaires pointent l’influence des campagnes numériques, mais concluent à une efficacité réelle controversée, faute d’accès complet aux données publicitaires, aux algorithmes de Facebook et aux budgets investis par les équipes de campagne.
Ce que l’affaire Cambridge Analytica révèle, en creux, de notre fragilité collective face à l’usage des données
L’aspiration de données de 87 millions d’utilisateurs Facebook, dont 70,6 millions aux États‑Unis et 1,1 million au Royaume‑Uni, a agi comme signal d’alarme. Ce scandale révèle une fragilité de la vie privée face à des techniques opaques, où un clic sur un test psychologique suffit à nourrir, à leur insu, un profil électoral détaillé.
Les débats sur Trump 2016, sur le Brexit et sur l’amende de 565 000 euros infligée à Facebook exposent l’écart entre usages politiques des données et attentes démocratiques du public. Dans ce climat, la confiance des citoyens dans le numérique vacille et la responsabilité des plateformes sociales semble incertaine. Même bien après la faillite de Cambridge Analytica en 2018.