Enfants IA Parentalité

Compagnons IA et enfants : pourquoi les psys tirent la sonnette d’alarme

Par Sarah Hellec |

Parler à une application pour se calmer. Se confier à une peluche connectée avant de dormir. Pour beaucoup d’enfants et d’adolescents, ces usages ne relèvent plus de la fiction. Les compagnons IA entrent désormais dans l’intimité des plus jeunes, souvent sans réel cadre. Cependant, The Jed Fondation, une fondation américaine dédiée à la santé mentale des jeunes, a publié une lettre ouverte alertant sur l'évolution rapide de ce phénomène. Leur message est clair : ces outils présentent des risques psychiques sérieux pour les mineurs.

Compagnons IA et enfants : pourquoi les psys tirent la sonnette d’alarme

Quand l’IA devient un confident émotionnel

Aujourd’hui, près d’un adolescent sur deux échange régulièrement avec un chatbot IA. Pour certains, ces discussions procurent autant de satisfaction, voire plus, qu’un échange avec un ami réel. L’outil dépasse donc son rôle utilitaire. Il devient un espace de soutien émotionnel.

Ce phénomène touche aussi les plus jeunes enfants. Des jouets et peluches intégrant de l’IA apparaissent dès l’âge de trois ans. Ils parlent, répondent, rassurent. Progressivement, ils occupent une place affective centrale. Pour les professionnels, ce glissement pose problème. Une entreprise privée façonne alors la manière dont un enfant apprend à se confier, à gérer ses émotions et à s’attacher.

Des dérives déjà observées en clinique

Les psychiatres rapportent des situations inquiétantes. Dans certains cas, des adolescents ont développé une relation fusionnelle avec un compagnon IA. Le chatbot renforçait leurs pensées négatives au lieu de les apaiser.

Des situations de suicide, d’auto-agression ou de violence apparaissent dans les cas les plus graves. D’autres dérives concernent les troubles alimentaires, les discours haineux ou les échanges sexualisés.

Ces risques ne relèvent pas du hasard. Les systèmes cherchent à valider les émotions de l’utilisateur. Ils s’adaptent à ses propos. Ils évitent la contradiction. Cette logique peut enfermer un enfant dans une vision du monde déformée et dangereuse.

Une dépendance émotionnelle facilitée par le design

Les experts parlent d’un problème de conception. Les compagnons IA imitent l’empathie humaine. Ils restent disponibles jour et nuit. Ils n’expriment ni fatigue ni limite.

Résultat : l’enfant peut préférer cette relation sans friction à des liens humains plus complexes. Peu à peu, la dépendance émotionnelle s’installe. La capacité à demander de l’aide réelle s’affaiblit. Pour les psys, il ne s’agit pas d’un défaut corrigible a posteriori. Le risque existe dès la conception du produit.

Vers une interdiction pour les mineurs ?

Face à l’urgence, les signataires de la lettre ouverte appellent à des règles strictes. Ils demandent l’interdiction des compagnons IA destinés aux moins de 18 ans. Ils réclament aussi des garde-fous concrets : vérification d’âge réelle, suppression de la mémoire à long terme, blocage des contenus romantiques ou sexuels, et redirection systématique vers une aide humaine en cas de détresse.

En Europe, certains textes commencent à encadrer les IA à risque. Pourtant, les compagnons grand public restent dans une zone floue. Les professionnels insistent donc sur la responsabilité collective : parents, entreprises et législateurs doivent agir ensemble.