

Pas le temps de lire ? Écoutez la version podcast de cet article !
L’intelligence artificielle dans l’actualité : une révolution technologique avec des risques bien réels
Nous sommes en 2025, une époque où l’intelligence artificielle (IA) n’est plus un fantasme, mais une réalité incontournable de la vie quotidienne. Selon Forbes Advisor, dans leur article partageant les 22 principales statistiques et tendances de l’IA, le taux de croissance annuel de l’usage de l’IA générative est estimé à 36,6 % entre 2023 et 2030. Cette technologie s’est répandue rapidement dans les milieux professionnels et éducatifs, mais les structures de réglementation, de formation et de gouvernance n’ont pas su suivre le rythme. Cette situation engendre des usages inappropriés et soulève des risques considérables liés à la sécurité des données, à la qualité de la prise de décision et au développement des compétences critiques.
Parallèlement, l’utilisation de l’IA générative pour la création et la diffusion de désinformation progresse rapidement. En effet, le même article du Forbes Advisor indique également que 75 % des consommateurs se déclarent préoccupés par la désinformation issue de l’IA, tandis qu’une étude de 2025 de l’université de Melbourne indique que 61 % des individus n’ont reçu aucune formation dans ce domaine. Ce déséquilibre, entre une croissance exponentielle de l’IA et une faible littératie numérique, alimente une crise de confiance marquée par la prolifération de contenus artificiellement fabriqués. Cette dynamique met en lumière l’urgence de concilier innovation technologique et gouvernance responsable, afin d’exploiter le potentiel de l’IA de manière sûre et bénéfique.
Quand l’intelligence artificielle alimente la désinformation
Comme tout outil, l’intelligence artificielle peut être utilisée à bon ou abusivement, influençant ainsi la perception et la confiance du public. Depuis son introduction dans nos vies publiques et médiatiques, de nombreux cas ont démontré ses dérives potentielles. Prenons par exemple l’un des cas les plus médiatisés de collision entre culture populaire et politique : celui des hypertrucages (ou deepfakes). Ces contrefaçons numériques hyperréalistes utilisent des techniques d’apprentissage automatique avancées pour créer des représentations convaincantes d’individus disant ou faisant des choses qu’ils n’ont jamais faites.
L’exemple Taylor Swift: la désinformation à grande échelle
Un article de la CBC, publié en août 2024, rapportait que l’image de Taylor Swift avait été utilisée pour créer et diffuser des hypertrucages politiques générés par l’IA, incitant les gens à voter pour Donald Trump lors des élections de novembre 2024. Trump lui-même aurait partagé plusieurs de ces images sur son réseau Truth Social. Par conséquent, l’article souligne cet exemple des dommages potentiels que pourrait causer à notre société une telle désinformation, y compris des abus lors des élections.

Source: CBC/ realDonaldTrump/Truth Social
De tels exemples nourrissent les inquiétudes des experts, qui craignent que cela puisse conduire à une situation où les citoyens n’auraient plus de réalité partagée . Le Congrès américain a d’ailleurs souligné que ces technologies risquaient de « brouiller la frontière entre faits et fiction, […] et de miner la confiance du public dans les images et vidéos comme représentations objectives de la réalité ». En somme, la plus grande menace qui pèse sur l’utilisation non éthique de l’IA est la perte de confiance des consommateurs, même envers les contenus authentiques.
Ces cas illustrent parfaitement la nécessité pour notre société d’adopter une législation rigoureuse afin de contrer la désinformation, tout en démontrant les dommages potentiels d’une telle dérive. Les principales préoccupations des consommateurs concernent la confidentialité et la sécurité des données, l’hyperpersonnalisation intrusive, le manque de transparence et les implications éthiques de ces technologies. Par conséquent, cela souligne la nécessité d’une intégration éthique, transparente et responsable de l’IA dans les pratiques commerciales et médiatiques.

Source: BCG (2024) “Consumers Know More About AI Than Business Leaders Think”
Des exemples positifs : quand l’intelligence artificielle inspire la confiance
Cependant, il serait injuste de ne voir que le revers de la médaille. L’intelligence artificielle ouvre également un monde de possibilités pour les entreprises et les consommateurs. Malgré les inquiétudes, 65 % des consommateurs déclarent toujours faire confiance aux entreprises qui utilisent l’IA.

Source: Haan, K. (2024, 16 octobre). 22 Top AI Statistics And Trends. Forbes Advisor.
L’IA apporte en effet de nombreux avantages. Dans un monde saturé d’informations, elle permet de simplifier la navigation en ligne, de personnaliser les expériences d’achat et de proposer des suggestions pertinentes basées sur l’analyse du comportement des utilisateurs. Selon Globe Newswire, 46 % des consommateurs ont effectué un achat grâce à des recommandations générées par l’IA.

Source: Optimove (2023) “Survey Reveals Over Half of U.S.Consumers Hold Positive Views on AI in Marketing”
L’exemple Sephora : une intelligence artificielle centrée sur l’humain
L’exemple de Sephora illustre bien le potentiel positif de cette technologie. Dès 2016, la marque a lancé son premier robot conversationnel, “Sephora Virtual Artist“, afin d’introduire une approche interactive et centrée sur le client. Conçu non pas pour vendre, mais pour informer, cet outil agit comme un consultant beauté virtuel, guidant les consommatrices dans leurs choix. Grâce à cette approche, Sephora a offert une expérience plus fluide, personnalisée et agréable, renforçant ainsi la confiance et la fidélité de sa clientèle. Résultat : ses ventes en ligne ont quadruplé entre 2016 et 2022, atteignant plus de 3 milliards de dollars.

Source: ECDB GmbH, “E-commerce net sales of sephora.com from 2016 to 2025” Statista
Vers une utilisation éthique et bénéfique de l’intelligence artificielle
Comme le rappelle le célèbre adage de Spider-Man : « Un grand pouvoir implique de grandes responsabilités. » L’IA n’échappe pas à cette maxime. L’usage que nous en faisons peut soit créer, soit éroder la confiance des consommateurs. Le véritable enjeu repose sur la capacité des entreprises à intégrer ces outils de manière éthique, transparente et centrée sur l’humain.
Pour ce faire, plusieurs axes sont essentiels :
- Protéger la confidentialité et la sécurité des données en appliquant des normes rigoureuses et un consentement éclairé. Éviter de collecter des données inutiles, puisque cela permet l’obtention de la confiance des clients
- Assurer la transparence et l’explicabilité des algorithmes grâce à l’IA explicable (XAI), permettant aux consommateurs de comprendre comment et pourquoi certaines décisions sont prises.
- Maintenir une conception centrée sur l’humain, en plaçant le bien-être, la compréhension et la satisfaction des utilisateurs au cœur du développement technologique. Permettant ainsi d’améliorer l’expérience utilisateur et la réputation de la marque.
- Respecter les pratiques éthiques et la conformité réglementaire, tout en s’assurant de la qualité des données utilisées pour éviter les biais et les failles.
Conclusion : choisir la confiance plutôt que la vitesse
L’intelligence artificielle représente à la fois un levier d’innovation et un défi sociétal majeur. Son intégration rapide transforme nos interactions, nos choix et nos perceptions. Toutefois, sans une direction nette, une éthique commune et une plus grande ouverture, elle pourrait être éclipsée par la méfiance qu’elle inspire. L’avenir de l’IA dépendra donc de notre capacité collective à allier progrès technologique et responsabilité humaine, afin que cette révolution numérique demeure au service de la confiance, de la connaissance et du bien commun.
Sources
Balaji, N., Bharadwaj, A., Apotheker, J. & Moor, M. (2024, avril 24). Consumers Know More About AI Than Business Leaders Think. Boston Consulting Group. https://www.bcg.com/publications/2024/consumers-know-more-about-ai-than-businesses-think#:~:text=Our%20survey%20found%20that%20people,or%20another%20AI%2Ddriven%20tool.
Bouazzaouiimane. (2024, 19 mars). AI and Sephora : A continuous love story. Digital HEC.
Europol (2022), Facing reality? Law enforcement and the challenge of deepfakes, an observatory report from the Europol Innovation Lab, Publications Office of the European Union, Luxembourg.
Haan, K. (2024, 16 octobre). 22 top AI statistics and trends. Forbes Advisor.
Harris, J. [Johnny Harris]. I deep faked myself, here’s why it matters [Vidéo]. YouTube. https://www.youtube.com/watch?v=S951cdansBI.
MacMillan, R. (2024) “ The AI Dilemma: Balancing Innovation and Consumer Trust in marketing”[Video]. Oxford College of Marketing. YouTube. https://youtu.be/aOdtKpuqdbg?si=EuSPBne8THX4gScY.
MultiVu. (2016, 16 février). Sephora Virtual Artist App [Vidéo]. YouTube. https://www.youtube.com/watch?v=U_7YhQwMp_k.
Optimove. (2023, 10 décembre). Survey reveals over half of U.S. consumers hold positive views on AI in marketing. https://www.globenewswire.com/news-release/2023/12/10/2793459/0/en/Survey-Reveals-Over-Half-of-U-S-Consumers-Hold-Positive-Views-on-AI-in-Marketing.html#.
Parsani, P. (2024, 23 février). Beauty and the bot: How Sephora reimagined customer experience with AI. CUT THE SAAS. https://www.cut-the-saas.com/ai/beauty-and-the-bot-how-sephora-reimagined-customer-experience-with-ai.
Soon, L. (2025, 28 février). AI transparency and ethics: Building customer trust in AI systems. CMSWire.
Thomson Reuters. (2024, 19 août). Trump posts image of fake Taylor Swift endorsement. CBC News. https://www.cbc.ca/news/world/trump-taylor-swift-fake-endorsement-ai-artificial-intelligence-deepfake-1.7298845.

1 commentaire
Juan
Un article très complet, merci pour le partage !