Geopolintel

L’intelligence artificielle au service des campagnes électorales mensongères

dimanche 11 août 2024

La vraie Kamala Harris jeune et opportuniste

En 2020, la campagne électorale de Joe Biden s’est déroulée dans le sous sol de sa maison pour le protéger du Covid et pour éviter de révéler sa démence et son inaptitude physique à tenir des meetings dans tout le pays.
Cette année, sa vice présidente Kamala Harris a conspiré pour éjecter frauduleusement Biden de la course à la présidentielle et s’est retrouvée à son tour devant la réalité de son inaptitude politique qui l’a forcé à refuser de débattre avec Donald Trump.

Les stratèges de sa campagne ont décidé d’avoir recours à l’intelligence artificielle pour monter sa popularité en singeant les meetings de Trump sur les tarmacs des aéroports. Les électeurs, qui ont utilisé l’intelligence artificielle pour dénoncer la démence de Biden, ont fait la chasse à la désinformation de Kamala Harris en scrutant les photos de ses meetings et on révélé que le public de Harris était artificiel au moyen de photos générées par intelligence artificielle.

Nous sommes dans un combat de l’information où mentir, tricher, manipuler, seront possible avec l’intelligence artificielle. Les discours seront scénarisés avec de faux acteurs au visage de Kamala Harris pour tenter de donner l’illusion de son aptitude à gérer les Etats Unis, alors qu’elle passe son temps à danser et rire comme une adolescente.
Sa côte de popularité a été faussement surévaluée pour la placer à égalité de Trump qui domine les débats sans commune mesure depuis sa tentative d’assassinat manquée.

Maintenant que les sondages donnent Kamala Harris perdante face à Trump, les communicants de la Maison Blanche mentent en utilisant des images de son public, générées par l’IA et oublient que la logique de la lumière ne peut encore se reproduire dans le programme de cette « intelligence » et nous offrent un spectacle navrant pour promouvoir encore une fois une actrice qui doit sa carrière politique à ses coucheries multiples avec le gratin californien.

Contrairement à Kamala Harris, une péripatéticienne a le courage de travailler à visage découvert sans tromper le client sur le service et la marchandise.

Elon Musk a laissé entendre qu’il avait partagé une vidéo deepfake de la vice-présidente Kamala Harris parce qu’il s’agissait d’une « satire », prouvant la rapidité avec laquelle une vidéo manipulée peut devenir virale, tout en sachant qu’elle est fausse.

Les spécialistes en IA observent la manière dont les gouvernements utilisent l’IA pour créer des contenus destinés à tromper les gens, comme une fausse vidéo du président ukrainien Volodymyr Zelenskiy semblant se rendre à la Russie. Mais l’essor d’outils d’intelligence artificielle bon marché et faciles à utiliser a donné lieu à un flot de contenus créatifs qui mélangent subtilement la réalité et la fiction. Parodie ou non, les vidéos et les audios générés par l’IA ont la capacité d’influencer les électeurs, de remodeler l’opinion publique et de minimiser les problèmes.

Elles peuvent se propager rapidement sur les médias sociaux, où les faux mèmes se mêlent indifféremment aux vraies informations.

Selon Tom Buchanan, professeur de psychologie à l’université de Westminster, qui a longuement étudié la question, environ 20 % des internautes du monde entier ont déclaré avoir partagé des informations erronées sans le vouloir. Environ 10 % des internautes ont déclaré avoir partagé quelque chose qu’ils savaient être faux, a-t-il ajouté.

« Même si certaines personnes savent qu’un élément audio ou vidéo généré par l’IA est faux, si elles y croient, cela donne une sorte de réalité aux rumeurs ou à ce qui se passe dans la tête de quelqu’un », a déclaré Henry Ajder, un expert de l’IA et des deepfakes. "Cela peut être tout aussi puissant. Des deepfakes satiriques du monde entier sont devenus viraux, depuis des images générées par l’IA de républicains travestis jusqu’à des politiciens indiens habillés en Barbie rose. Par exemple, depuis que Donald Trump a choisi JD Vance comme colistier, les utilisateurs ont inondé X et TikTok d’images du nouveau candidat à la vice-présidence générées par l’IA.

Autre exemple aux Pays-Bas : une image « deepfake » qui a circulé pendant la campagne présidentielle représentait le politicien Frans Timmermans mangeant du caviar à bord d’un avion privé. Bien que la photo ait été clairement modifiée et étiquetée comme étant générée par l’IA, un commentateur a écrit : « Que la photo soit fausse ou non, elle est véridique », ce qui implique que le message politique sous-jacent à l’image - à savoir que le candidat est déconnecté du grand public - était tout à fait pertinent.

La transmission de deepfakes satiriques peut souvent conduire à une interprétation erronée ou à une mauvaise compréhension du message original. Ce phénomène, connu sous le nom d’« effondrement du contexte », où chaque nouvelle publication ou partage s’éloigne de plus en plus du message initial. Ce problème est compliqué par la nature virale des deepfakes, qui sont visuellement parlant et très faciles à partager.

« La technologie des deepfakes est relativement nouvelle », explique Josephine Lukito, professeur adjoint à l’école de journalisme et des médias de l’université du Texas à Austin. "Mais les stratégies visant à faire progresser la propagande politique ne le sont pas.

Des patrons de presse américains ont affirmé que la Chine, la Russie et l’Iran s’appuient sur des sociétés de marketing ou des influenceurs de médias sociaux influencent l’opinion publique avant les élections américaines de novembre.

L’externalisation de la propagande à des tiers permet aux gouvernements étrangers de mener des expériences pour déterminer quels types de messages sur les médias sociaux trouveront un écho auprès de leur public cible. Elle permet également aux gouvernements d’opposer un démenti plausible, puisqu’ils peuvent détourner leur responsabilité dans l’opération s’ils étaient démasqués.

La sollicitation d’entreprises de relations publiques ou d’influenceurs sur les médias sociaux permet aux États-nations de trouver des professionnels plus compétents en matière de communication numérique que les agences de renseignement ou les bureaucrates. Cela se traduit par un plus grand nombre de « deepfakes », de conspirations plus créatives et de tactiques de médias sociaux plus flashy qui pourraient toucher plus d’utilisateurs que les posts qui proviennent manifestement de représentants du gouvernement, ont déclaré les experts.

Comme l’a dit Priscilla Moriuchi, membre du Belfer Center de Harvard, « les gouvernements ne sont vraiment pas drôles ».

Bloomberg

—  0 commentaires  —

© Geopolintel 2009-2023 - site réalisé avec SPIP - l'actualité Geopolintel avec RSS Suivre la vie du site