Face à l’évolution rapide des pratiques frauduleuses dans la sphère numérique, Google a publié le 16 avril 2025 son rapport annuel sur la sécurité publicitaire. L’entreprise y présente un bilan quantitatif ambitieux, fondé sur des outils de détection automatisés et un encadrement renforcé. Derrière les chiffres, une volonté affichée de réguler un espace commercial de plus en plus exposé à des usages politiques, économiques et technologiques détournés.
Publicités électorales : Google encadre les fraudes avec l’IA

Selon les données communiquées, Google a bloqué 5,1 milliards d’annonces en 2024 et restreint la diffusion de 9,1 milliards d’autres. En parallèle, 39,2 millions de comptes annonceurs ont été suspendus. Ces chiffres traduisent un durcissement des procédures internes, fondé sur une stratégie technologique articulée autour de l’intelligence artificielle (IA). L’objectif affiché est de prévenir la diffusion de contenus commerciaux trompeurs, illégaux ou abusifs.
L’entreprise indique avoir intégré plus de 50 modifications à ses modèles de traitement automatisé des contenus. Ces améliorations techniques permettent d’identifier plus tôt des signaux d’irrégularité, notamment lors de la création des comptes annonceurs. L’IA est utilisée à plusieurs niveaux : filtrage des contenus, détection de comportements suspects, et classification des annonces selon leur conformité aux règles internes.
Cette stratégie repose sur une logique préventive : la majorité des contenus supprimés ne sont pas signalés par les utilisateurs, mais bloqués avant même leur diffusion. Cela permet, selon Google, de limiter l’exposition des usagers aux contenus problématiques tout en réduisant la charge de traitement humain.
Usurpations, deepfakes, cryptoactifs : des cas de fraude plus complexes
Les contenus visés par ces mesures ne relèvent pas uniquement de la publicité mensongère classique. Le rapport met en avant une évolution dans la nature des fraudes détectées : de plus en plus d’annonces reposent sur des procédés d’usurpation d’identité, de falsification visuelle ou de promesses financières illégitimes. Certains formats exploitent les possibilités offertes par les technologies de deepfake, notamment pour simuler des endorsements par des personnalités publiques dans des campagnes liées aux cryptoactifs.
Ces nouvelles pratiques complexifient la détection. Elles reposent sur des mécanismes de persuasion visuelle et verbale crédibles, qui ciblent souvent des publics vulnérables ou peu informés. En réponse, Google a constitué une équipe interne de plus de 100 experts chargés de suivre les évolutions des méthodes employées par les fraudeurs et d’adapter les règles de diffusion.
Parmi les ajustements notables figure la révision de la politique de « déclaration trompeuse », élargie pour prendre en compte les procédés technologiques récents. Cette mesure a conduit à la suspension de 700 000 comptes associés à des cas d’usurpation ou de manipulation. L’entreprise affirme que ces actions ont permis de réduire de manière significative les signalements d’annonces frauduleuses, sans toutefois préciser l’ampleur de la baisse selon les zones géographiques.
Publicité politique : vers une normalisation algorithmique du débat
L’un des aspects les plus sensibles du rapport concerne la régulation des annonces à caractère politique. Dans un contexte électoral mondial chargé Google a renforcé ses exigences en matière de transparence.
Les campagnes diffusées doivent désormais inclure une identification claire de l’annonceur, la mention du financement du contenu, et un signalement obligatoire des éléments générés par intelligence artificielle. Ces obligations s’inscrivent dans un cadre plus large de lutte contre la désinformation et de régulation des discours d’influence à visée électorale.
Selon les chiffres communiqués, 10,7 millions d’annonces électorales ont été supprimées en 2024, faute de vérification ou pour non-respect des nouvelles règles. En parallèle, plus de 8 900 annonceurs ont été validés par les systèmes d’authentification interne.
Cette approche soulève néanmoins plusieurs questions d’ordre démocratique. Le contrôle du débat public en ligne repose de plus en plus sur des opérateurs privés capables de filtrer les contenus à grande échelle, sans recours juridictionnel systématique. L’utilisation d’algorithmes pour arbitrer la légitimité d’un message politique, même partiellement, interpelle sur les garanties procédurales offertes aux acteurs concernés.
Une logique d’autorégulation renforcée mais asymétrique
Au-delà de ses outils internes, Google a récemment intensifié ses actions de coordination avec d’autres plateformes et institutions. L’entreprise a rejoint l’Alliance globale anti-scam et cofondé le Global Scam Signals Exchange, un réseau de partage d’informations destiné à améliorer la détection croisée des comportements frauduleux.
Ce mouvement traduit une volonté d’uniformisation des normes, sans passer nécessairement par une régulation publique centralisée. Il répond à un besoin exprimé de protection des utilisateurs, mais soulève également la question du périmètre de responsabilité des entreprises dans la régulation d’espaces numériques globaux.
À ce jour, aucune instance indépendante n’évalue de manière transparente les critères d’exclusion appliqués par Google à ses campagnes publicitaires. Si l’efficacité statistique des dispositifs semble démontrée, la lisibilité de leurs modalités demeure limitée. L’autonomisation croissante de l’IA dans les processus de sélection des annonces accentue cette tendance.
L’enjeu, à terme, est de déterminer dans quelle mesure les plateformes peuvent s’ériger en régulateurs partiels des sphères publiques numériques, et comment les États, les législateurs ou les autorités indépendantes peuvent y trouver une place. Dans ce cadre, la publication du rapport 2024 apparaît autant comme un outil de communication stratégique que comme une tentative de réponse technocratique à un besoin de confiance.