Attention

Votre navigateur n'est plus à jour et il se peut que notre site ne s'affiche pas correctement sur celui-ci.

Pour une meilleure expérience web, nous vous invitons à mettre à jour votre navigateur.

IA, désinformation et fraude : comment rester vigilant

Par Rafael Passalacqua-Loli
IA, désinformation et fraude : comment rester vigilant Tero Vesalainen/Shutterstock.com

Hypertrucage, fausse voix, vidéo entièrement fabriquée : l’intelligence artificielle rend plus floue que jamais la frontière entre le vrai et le faux. Voici cinq conseils à suivre pour mieux détecter la désinformation et les fraudes générées par l’IA.

Il y a à peine un an, on pouvait encore facilement repérer les images ou vidéos générées par l’IA en raison de détails maladroits comme des doigts déformés ou des décors incohérents. Aujourd’hui, la technologie permet de créer des contenus presque indétectables, reproduisant fidèlement les visages, les voix, les mouvements de lèvres et les environnements complexes.

Selon le Centre de la sécurité des télécommunications Canada (CST), cette évolution technologique accroît les risques de fraude, de désinformation de toutes sortes, ainsi que ceux liés au harcèlement, à l’usurpation d’identité ou au cyberespionnage.

Le CST identifie trois degrés à la communication de fausses informations :

  • La mésinformation, qui consiste à diffuser de manière involontaire de fausses informations ;
  • La désinformation, qui correspond à la diffusion volontaire de faussetés dans le but de manipuler ou de nuire ;
  • La malinformation, c’est-à-dire la diffusion d’informations réelles sorties de leur contexte ou exagérées.

Distinguer le vrai du faux devient de plus en plus difficile

Les générateurs de vidéos comme Sora (créé par les développeurs de ChatGPT) ou Veo3 de Google gagnent en popularité. Ils offrent des avantages réels dans les domaines de l’éducation, de la création artistique ou encore en innovation ou pour des enjeux d’accessibilité.

Mais en raison de la qualité des images et des voix qu’ils génèrent, leur usage malveillant progresse, lui aussi, très rapidement : récemment, le Centre canadien pour la cybersécurité (CSSS), qui relève du CST, a émis un avis conjoint avec le Centre antifraude du Canada (CAF) afin de mettre la population en garde contre la hausse des textos frauduleux, des messages vocaux trompeurs et des hypertrucages utilisés pour escroquer le public en se servant de l’image et de la voix de personnalités connues. L’IA permet en effet de créer des courriels et textos d’hameçonnage particulièrement convaincants, appuyés par des images ou des vidéos hyperréalistes qui renforcent leur crédibilité.

De plus, dans son évaluation des cybermenaces nationales pour 2025-2026, le CSSS observe une montée en puissance des cybermenaces générées tant par des acteurs étatiques que non étatiques. Leur objectif est d’exploiter l’IA pour faciliter la cybercriminalité, désinformer la population, la diviser, et manipuler l’opinion publique.

Cinq façons de se protéger

Adoptez une vigilance constante - La simple prise de conscience que certains contenus peuvent être entièrement générés par l’IA, parfois de manière indétectable, constitue déjà une première barrière contre la fraude et la désinformation. Rester vigilant face à ce que l’on voit en ligne est un réflexe essentiel… en tout temps.

Gardez un esprit critique – Face à du contenu ou à de l’information qui vous fait sourciller, ne vous fiez pas uniquement à une source : tournez-vous vers d’autres plateformes médiatiques réputées. Elles ont, elles aussi, parlé de ce sujet s’il est véridique.

Soyez conscient de l’impact émotionnel des contenus – Le CSSS conseille d’être méfiant face aux contenus qui suscitent de fortes réactions émotionnelles, qui présentent des affirmations exagérées ou polarisantes, ou qui circulent surtout sur des plateformes peu surveillées comme Facebook, Instagram ou X/Twitter. Ce type de contenu pourrait chercher à polariser les débats publics.

Restez vigilant face aux faux comptes – Selon le CSSS, la désinformation générée par l’IA est aussi relayée par des profils automatisés, dits « zombies », qui amplifient certains contenus pour manipuler ce qui est affiché sur les médias sociaux. Leurs publications sont assez répétitives, monotones et cherchent à faire réagir ainsi qu’à polariser les opinions. Examinez attentivement les comptes d’où émane l’information (sans cliquer sur des liens !) : souvent, leur création est récente, il n’y a pas de photo de profil, l’information est vague ou stéréotypée…

Prenez garde à l’hameçonnage – Méfiez-vous des textos ou des courriels qui exercent une pression pour vous inciter à agir rapidement, qui vous demandent des informations sensibles, qui vous offrent des récompenses trop généreuses, ou qui contiennent des pièces jointes inattendues, par exemple.

L’hypertrucage, lui, peut prendre l’apparence ou la voix d’une célébrité, ou même d’un de vos proches. Vous pouvez toujours communiquer avec la personne ou l’organisation à travers des moyens de contacts confirmés, comme en effectuant la recherche de leur numéro de téléphone vous-même sur la page officielle d’un site Web.

En cas de doute, ne cliquez sur rien, ne répondez pas et supprimez immédiatement le message. Les textos frauduleux peuvent aussi être dénoncés en les transférant gratuitement par texto au 7726 (SPAM).

Vers une réglementation de l’IA ?

Lors de son premier discours depuis sa nomination, le ministre canadien de l’Intelligence artificielle et de l’Innovation numérique, Evan Solomon, a reconnu l’importance d’un encadrement équilibré qui protège les Canadiens sans freiner l’innovation ni la compétitivité de l’industrie.

Les outils de détection demeurent imparfaits, et aucune solution technologique ne permet en ce moment de contrer efficacement les risques associés à l’IA générative.

Mais certaines initiatives, comme les filigranes numériques, tentent de baliser le terrain. Par exemple, SynthID, outil développé par Google, insère une signature invisible dans les textes, images et vidéos générés par ses propres générateurs de contenu. Bien que Google affirme collaborer avec d’autres entreprises, comme NVIDIA, pour reprendre cette approche, l’adoption des filigranes reste limitée. Il n’est pas certain que cette technologie devienne une norme ni qu’elle soit suffisamment fiable pour prévenir les abus.

À l’ère des hypertrucages et des fausses voix, savoir qu’il devient presque impossible de distinguer le vrai du faux reste un réflexe indispensable.

À lire aussi : Commerce en ligne : les fraudeurs ne manquent pas d’idées cet été ! et Fuite massive de mots de passe : 4 gestes pour rester en sécurité

 

  Ajouter un commentaire

L'envoi de commentaires est un privilège réservé à nos abonnés.

Il n'y a pas de commentaires, soyez le premier à commenter.