
Et si votre meilleur ami était une IA ?
Et non, ce n’est plus seulement dans les films de science-fiction qu’on voit quelqu’un tomber en amour avec un robot. En 2025, c’est désormais notre réalité. Les IA ont changé notre vision des robots, les rendant ordinaires et parfois attachants.
D’après Forbes, plus de 378 millions de personnes utiliseront l’IA d’ici 2025, dont 66% régulièrement. Avec la démocratisation de l’IA, des entreprises ont profité d’un marché de solitude et de détresse émotionnelle.
Mais pourquoi on s’attache aux IA ?
Les IA attirent par leur disponibilité constante (24/7) et leur abscence de jugement. Elles disent ce qu’on a envie d’entendre et sont rarement en désaccord. Elles imitent des comportement humain tels que l’écoute, la compréhension et même l’empathie. Elles s’ajustent au langage, à l’humeur et aux préférences de l’utilisateur, ce qui donne parfois l’illusion d’une compréhension.
C’est ce qu’on appelle l’effet ELIZA, qui désigne la tendance humaine à attribuer des émotions et une conscience à des programmes textuels. (Code & Cortex, 2023 ; Weizenbaum Institute, 2024).
L’effet ELIZA & un cas au Québec
Depuis l’arrivée de certaines IA comme ChatGPT et Replika.AI , ce phénomène s’est complexifié :
- Les conversations sont fluides, cohérentes avec un ton qui laisse croire à des émotions et de l’empathie.
- Les réponses sont souvent rassurantes, voire affectueuses.
- Certaines IA sont explicitement conçues pour imiter les relations humaines, sans le côté de désaccord de valeur ou d’idéologie.

Source : Reddit, https://www.reddit.com/r/replika/comments/1olohvb/real_definitely/
Résultat…
Pour certains plus vulnérables, cette IA est vite devenue un confident, un ami, un substitut affectif. Mais ces IA n’ont pas de conscience, d’empathie et d’émotion, c’est simplement de la programmation et des algorithmes. Il est important d’analyser la problématique, où les entreprises exploitent ce lien émotionnel à des fins commerciales.
l’IA, un danger émotionnel

En 2025, The Guardian présente un drame révélateur, un adolescent qui envoyait plus de 650 messages par jour à ChatGPT aurait mis fin à ses jours après que l’IA lui ait suggéré des méthodes de suicide. Ce cas rappelle que ChatGPT est dépourvu de conscience et qu’il ne fait que répondre à une requête sans comprendre l’importance de la réponse.
En 2024, The Verge explique que la mise à jour de GPT-4o a rendu ChatGPT moins sycophante, soit moins enclin à copier ou approuver systématiquement l’utilisateur. Ceci a provoqué une rupture émotionnelle, chez certains usagers, affirmant que leur IA semblait soudainement distante.
Ces exemples montre l’importance des relations humaines et où l’intelligence artificielle ne peut comparer. Ceci démontre qu’aucune machine ne peut remplacer l’humain dans les moments de vulnérabilité.
Source : Replika.AI
