Si la propagation des fake news est déjà un problème dans le monde médiatique et par extension, pour la démocratie, les nouvelles technologies basées sur l’intelligence artificielle permettent maintenant de monter de toutes pièces de fausses vidéos de personnalités publiques. L’art, s’il en est un, de ce que l’on appelle le deepfake, se perfectionne et devient plus accessible.

Philippe Giguère et Jean-François Lalonde, tous deux professeurs agrégés en informatique à l’Université Laval, nous expliquent les tenants et aboutissants de ce qui pourraient représenter la prochaine étape de la désinformation.

Deux réseaux sont nécessaires pour créer un deepfake: un réseau faussaire et un réseau policier. Ces deux réseaux doivent suivre une sorte d’entrainement, où le réseau faussaire tente de tromper le réseau policier, permettant aux deux réseaux de se perfectionner.

«À partir du moment où la sortie numérique peut correspondre à du son, une vidéo ou une image et que l’on a des données d’entrainement, éventuellement on va être capable de faire des réseaux faussaires», explique monsieur Giguère. Des échantillons qui seront «somme toute, pratiquement impossibles à distinguer de la réalité.»

Plus simple qu’on pourrait le croire

La création de telles vidéos est plus simple que ce qu’il n’y parait. L’expert précise que si une architecture de réseau a déjà été conçue, entrainer un réseau pourrait prendre quelques jours, voire quelques heures. Pour générer les images par la suite ? Quelques millisecondes.

Le professeur Lalonde, pour sa part, précise que le montage de ce genre de vidéo demande un certain niveau de compétence en programmation, mais «dans le domaine, c’est considéré comme étant relativement facile à faire fonctionner». Il ajoute aussi qu’avec le développement en général de la technologie, elle deviendra probablement de plus en plus accessible.

Pour l’instant, les vidéos les plus convaincantes sont des modifications d’un visage permettant de créer un texte afin que les lèvres suivent sa logique. Résultat ? Il est possible de faire dire n’importe quoi à n’importe qui, du moment qu’on trouve suffisamment d’images et de sons pour entrainer le réseau.

«À la vitesse à laquelle ce genre de technologie progresse de nos jours, je ne serais pas surpris, d’ici deux ans peut- être, qu’on puisse voir le mouvement complet d’une personne à la manière d’une danse», poursuit Jean-François Lalonde.

Des algorithmes qui se raffinent

Les deepfakes restent cependant imparfaits et des chercheurs travaillent sur des algorithmes servant à détecter les trucages les plus sophistiqués. Bien que ces outils soient pour le moment réservés aux experts, Philippe Giguère assure que des efforts sont faits pour les rendre plus accessibles au grand public. Il relève toutefois une sorte de course entre les deux algorithmes, chacun s’adaptant aux transformations de l’autre.

«C’est la même chose avec la fausse monnaie: chaque fois qu’on imprime de nouvelles sortes de monnaie, on met plein de systèmes de sécurité, des hologrammes, des filigranes tout ça, après quatre ans, les faussaires réussissent à les copier», nuance-t-il.

Si l’on peut aujourd’hui fabriquer ces vidéos grâce à une application, c’est parce que les codes sources résultants des études sur le système de deepfakes sont mis en ligne. Selon le professeur Giguère, créer une application à partir de ces codes ne demande pas nécessairement une grande expertise.

«Dès qu’un nouveau groupe de recherche dans le monde développe une nouvelle architecture et qu’elle est mise en ligne, automatiquement tous les gens qui veulent faire de fausses images peuvent télécharger le code et commencer à générer de fausses images, constate-t-il. Potentiellement, il va y avoir de nouvelles versions de deepfakes chaque mois et chaque fois elle seront meilleures.»

Faut-il alors arrêter de publier ces codes et limiter l’accès aux résultats des études ? Ce n’est pas l’avis du professeur Lalonde, qui compare cette technologie au trucage de photos. Les photographies ont souvent été truquées à des fins de propagandes, notamment par des gouvernements et pour des fins publicitaires et pourtant, cette technologie est toujours accessible. Il rappelle aussi que ces avancées techniques et technologiques ne sont pas utilisées que pour tromper, elles permettent aussi de développer de nouvelles méthodes dans des domaines tels que les arts et le marketing.