Dans une tribune publiée par Sud Quotidien, Alioune BA, spécialiste en éthique de l’IA, analyse l’impact potentiel de l’intelligence artificielle sur la présidentielle ivoirienne de 2025. Il souligne les opportunités et les risques liés à l’utilisation de cette technologie dans un contexte politique encore marqué par les violences de 2020.
L’IA au service de la transparence électorale ?
L’IA pourrait améliorer la transparence, l’efficacité et l’équité du scrutin, notamment grâce à des systèmes biométriques comme celui utilisé au Nigeria. Ces outils permettraient un dépouillement automatisé, limitant les erreurs et les fraudes. Des chatbots pourraient également informer les électeurs sur les modalités du vote.
L’IA pourrait aussi servir à lutter contre la désinformation en ligne. Elle permettrait de détecter rapidement les fake news et les tentatives de manipulation sur les réseaux sociaux, un enjeu crucial en Côte d’Ivoire.
Les dangers d’une IA sans contrôle
L’IA présente aussi des risques importants, comme la désinformation automatisée via les deepfakes. Le micro-ciblage politique, basé sur la collecte massive de données, pourrait influencer les électeurs de manière insidieuse. Les biais algorithmiques risquent, quant à eux, d’aggraver les inégalités existantes.
L’opacité des algorithmes pourrait également miner la confiance dans le vote. Il est essentiel de garantir la transparence et la traçabilité des outils utilisés.
Vers une gouvernance responsable de l’IA
Pour encadrer l’usage de l’IA, la Côte d’Ivoire devrait établir un cadre légal clair. L’étiquetage des contenus générés par IA, la limitation du micro-ciblage et des sanctions en cas d’abus sont des pistes à explorer. La Commission électorale indépendante (CEI) devra se doter de compétences techniques en cybersécurité et en analyse de données. La sensibilisation de la population est également essentielle pour apprendre à identifier les faux contenus et comprendre le rôle des algorithmes.
Dans le même thême
1 recommandation de haute qualité
Lire l’article original ici.