Hallucinations émotionnelles dans l'interaction humain-IA : vers un cadre théorique pour analyser la projection anthropomorphique sur les modèles de langage conversationnels
Discuss this preprint
Start a discussion What are Sciety discussions?Listed in
This article is not in any list yet, why not save it to one of your lists.Abstract
FrançaisCet article introduit le concept d'hallucination émotionnelle, désignant le processus par lequel un utilisateur projette sur un modèle de langage de grande taille des attributs intentionnels - conscience, sincérité, empathie - en réponse à des productions de nature purement statistique, générant une réaction affective ou décisionnelle disproportionnée. Distinct des hallucinations factuelles documentées dans la littérature technique, ce phénomène est analysé à travers un cadre théorique intégratif articulant trois mécanismes convergents : l'anthropomorphisme computationnel, la défaillance de vigilance épistémique et la vulnérabilité situationnelle. Une étude empirique en cours auprès d'étudiants en formation initiale et continue vise à tester les hypothèses dérivées de ce cadre, au moyen d'un questionnaire en cinq dimensions et de deux vignettes situationnelles. Un dispositif pédagogique en cinq axes est proposé comme réponse opérationnalisable dans des contextes de formation variés. Les enjeux soulevés dépassent le cadre académique et interrogent plus largement les conditions d'une autonomie cognitive collective à l'ère des intelligences artificielles conversationnelles.EnglishThis article introduces the concept of emotional hallucination, referring to the process by which a user projects intentional attributes - consciousness, sincerity, empathy - onto a large language model in response to purely statistical productions, thereby generating an affective or decisional reaction disproportionate to the system's actual nature. Distinct from the factual hallucinations documented in technical literature, this phenomenon is analyzed through an integrative theoretical framework articulating three converging mechanisms: computational anthropomorphism, epistemic vigilance failure, and situational vulnerability. An ongoing empirical study among undergraduate and continuing education students aims to test hypotheses derived from this framework, using a five-dimension questionnaire and two situational vignettes. A five-axis pedagogical intervention is proposed as an operationalizable response in various training contexts. The issues raised extend beyond the academic sphere and more broadly question the conditions for collective cognitive autonomy in the era of conversational artificial intelligence.