Quand l’IA devient un confident émotionnel
Aujourd’hui, près d’un adolescent sur deux échange régulièrement avec un chatbot IA. Pour certains, ces discussions procurent autant de satisfaction, voire plus, qu’un échange avec un ami réel. L’outil dépasse donc son rôle utilitaire. Il devient un espace de soutien émotionnel.
Ce phénomène touche aussi les plus jeunes enfants. Des jouets et peluches intégrant de l’IA apparaissent dès l’âge de trois ans. Ils parlent, répondent, rassurent. Progressivement, ils occupent une place affective centrale. Pour les professionnels, ce glissement pose problème. Une entreprise privée façonne alors la manière dont un enfant apprend à se confier, à gérer ses émotions et à s’attacher.
Des dérives déjà observées en clinique
Les psychiatres rapportent des situations inquiétantes. Dans certains cas, des adolescents ont développé une relation fusionnelle avec un compagnon IA. Le chatbot renforçait leurs pensées négatives au lieu de les apaiser.
Des situations de suicide, d’auto-agression ou de violence apparaissent dans les cas les plus graves. D’autres dérives concernent les troubles alimentaires, les discours haineux ou les échanges sexualisés.
Ces risques ne relèvent pas du hasard. Les systèmes cherchent à valider les émotions de l’utilisateur. Ils s’adaptent à ses propos. Ils évitent la contradiction. Cette logique peut enfermer un enfant dans une vision du monde déformée et dangereuse.
Une dépendance émotionnelle facilitée par le design
Les experts parlent d’un problème de conception. Les compagnons IA imitent l’empathie humaine. Ils restent disponibles jour et nuit. Ils n’expriment ni fatigue ni limite.
Résultat : l’enfant peut préférer cette relation sans friction à des liens humains plus complexes. Peu à peu, la dépendance émotionnelle s’installe. La capacité à demander de l’aide réelle s’affaiblit. Pour les psys, il ne s’agit pas d’un défaut corrigible a posteriori. Le risque existe dès la conception du produit.
Vers une interdiction pour les mineurs ?
Face à l’urgence, les signataires de la lettre ouverte appellent à des règles strictes. Ils demandent l’interdiction des compagnons IA destinés aux moins de 18 ans. Ils réclament aussi des garde-fous concrets : vérification d’âge réelle, suppression de la mémoire à long terme, blocage des contenus romantiques ou sexuels, et redirection systématique vers une aide humaine en cas de détresse.
En Europe, certains textes commencent à encadrer les IA à risque. Pourtant, les compagnons grand public restent dans une zone floue. Les professionnels insistent donc sur la responsabilité collective : parents, entreprises et législateurs doivent agir ensemble.