Cette courte séquence montrant le nouveau premier ministre français François Bayrou, incapable de tenir un discours devant les députés à l’Assemblée nationale, est devenue virale sur WhatsApp et sur d’autres réseaux sociaux. Dans cette vidéo , le premier ministre français balbutie constamment devant les députés à l’Assemblée nationale . Les internautes prétendent que François Bayrou n’a pas su répondre à la question des députés qui envisageaient une collaboration future entre la France et l’Alliance des États du Sahel(AES), constituée par le Burkina Faso, le Mali et le Niger.
Cependant, les vérifications de Fact-Check Congo prouvent qu’il s’agit d’un deepfake. La rédaction est parvenue à trouver la vidéo originale de l’intervention de François Bayrou qui s’exprimait devant les députés lors de la session plénière du 17 décembre 2024.
« À la simple question de savoir si la France pourrait coopérer avec l’AES, le premier ministre français n’a pas su répondre à la question des français. » Lit-on sur la séquence en cours de vérification.
Pour procéder à la vérification de cette rumeur, la rédaction de Fact-check Congo a fait recours à la technique de recherche d’images inversées et a été conduite sur la chaîne YouTube Ouest France qui a mis en ligne, le 17 décembre 2024, une vidéo titrée : « Direct : Assemblée nationale, François Bayrou va répondre aux questions des députés.» Une vidéo qui a une durée de plus d’une heure.
Après avoir visualisé l’intégralité de l’intervention du premier ministre français devant les députés à l’Assemblée, nous avons constaté que nulle part François Bayrou n’a tenu un discours avec autant d’hésitation, comme semble le montrer la vidéo en cours de vérification.
Notre rédaction a également constaté que la question relative à une prétendue collaboration future entre l’AES et la France n’a nullement été adressée à François Bayrou.
Un deepfake est une forme de média tels qu’une photo ou une vidéo, générée par l’intelligence artificielle (IA) pour représenter des personnes réelles ou inexistantes effectuant des actions qu’elles n’ont jamais faites. L’IA manipule une image, une vidéo ou un enregistrement vocal pour analyser les caractéristiques d’une personne, puis les mélanger avec des séquences existantes à l’aide d’algorithmes uniques. La technologie Deepfake peut être utilisée pour montrer une personne disant quelque chose qu’elle n’a jamais dite ou faisant quelque chose qu’elle n’a jamais faite en plaçant son visage, son corps ou sa voix sur une autre personne.
Fact-Check Congo est parvenu à la conclusion selon laquelle, la vidéo en cours de vérification est manipulée. Soyez prudents et n’accordez pas du crédit à tous les contenus circulant sur les réseaux sociaux.
Faites preuve d’observation critique.