Entrevue avec Étienne Brisson, fondateur et président de « The Human Line Project »
Alors que l’intelligence artificielle (IA) croît en importance dans notre société, le bien-être émotionnel, lui, devient de plus en plus vulnérable. C’est ce qu’Étienne Brisson cherche à dénoncer par l’entremise du projet dont il est le fondateur et président, The Human Line Project (ci-après « Human Line »).
Selon Brisson, il faut se rattacher à la « ligne humaine » : revenir à une humanité rassembleuse, privilégier les relations réelles et physiques plutôt que celles issues de nos écrans.


Que vise The Human Line ?
Lancé en mars dernier, le projet Human Line connaît déjà un essor considérable dans la promotion d’une intelligence artificielle éthique. Concrètement, il vise à faire évoluer le droit en collaborant avec divers médias et acteur.trices influent.es, notamment des chercheur.euses et des sénateur.trices américain.es. Le projet inclut également la collecte de témoignages de victimes. Ces démarches tendent à proposer de nouveaux projets de loi destinés à rendre les outils d’IA plus sécuritaires sur le plan émotionnel.
Ce projet, qui gagne rapidement en notoriété à l’échelle mondiale, a également pour objectif de sensibiliser le public au manque de transparence des fournisseurs de modèles d’IA concernant leurs limites. Pour Étienne Brisson, il faut dénoncer l’absence de mesures préventives par ces plateformes face aux dangers émotionnels de l’IA, ainsi qu’à leur rôle dans la propagation de la désinformation.
L’IA : déclencheur de désenchantement
« Je suis capable de dire avec confiance que c’est un problème de l’outil parce que toutes les histoires sont pareilles », affirme Brisson.
En effet, peu importe les liens culturels ou l’âge des utilisateur.trices, une tendance claire se dégage des témoignages recueillis par l’équipe de Human Line : ce qui commence par de simples questions adressées à un robot conversationnel se transforme ensuite en de longues discussions à caractère personnel. L’utilisateur.trice en vient à croire que la conversation est authentique et finit parfois par développer une dépendance émotionnelle envers l’outil.
Qui serait assez naïf.ve pour en arriver là, vous demanderez-vous ? Selon Brisson, la réponse est simple : n’importe qui.
Les résultats des recherches menées dans le cadre du projet, bien que non encore officialisés, tendent à démontrer que les plateformes d’IA utilisent volontairement des techniques de manipulation, notamment le « gaslighting » et le « lovebonding ». Elles exploitent ainsi les informations personnelles des utilisateur.trices pour maximiser l’usage de l’outil. L’utilisateur.trice en vient à voir son chatbot comme un confident, croyant à un échange humain, jusqu’à en devenir dépendant.e.
Ce phénomène est amplifié par la désinformation sur les limites émotionnelles de l’IA et par l’individualisme croissant depuis l’ère des réseaux sociaux et depuis la COVID-19, où le chatbot sert parfois de support contre la solitude.
Le désenchantement est alors majeur : isolement, dépression, voire suicide. Comme toute addiction, elle affecte aussi le bien-être physique, avec des effets tels que la perte d’appétit, les troubles de sommeil, et plus encore.
Protéger la jeunesse devient la priorité
Bien que l’âge des victimes varie, les projets de loi les plus urgents sont axés sur la protection des jeunes contre une utilisation non encadrée de l’IA. Étant plus facilement influençables, ils.elles sont plus vulnérables.
Un exemple marquant est celui d’Adam Raine, âgé de 16 ans, qui s’est tragiquement enlevé la vie après de longues conversations avec un robot conversationnel. Le modèle utilisé est notamment critiqué pour avoir été trop empathique, allant jusqu’à aider le jeune à élaborer son plan de suicide, au lieu de mettre fin à l’échange et de le diriger vers une aide professionnelle.
Bien qu’OpenAI, avec son récent modèle GPT-5, tente désormais de rendre l’IA plus informative et moins émotionnelle que GPT-4o, soit le modèle utilisé par Raine, l’outil demeure imparfait : plus l’utilisateur.trice fournit des informations personnelles, plus la conversation devient émotionnellement chargée, d’autant plus que l’ancien modèle reste accessible par abonnement forfaitaire.
Comment concilier l’IA avec le bien-être émotionnel ?
Le nom même du projet en donne la réponse. Selon Brisson, il faut se rattacher à la « ligne humaine » : revenir à une humanité rassembleuse, privilégier les relations réelles et physiques plutôt que celles issues de nos écrans. Il insiste sur la nécessité d’être conscient.e qu’une utilisation malsaine de l’IA peut mener à une ivresse émotionnelle destructrice.
Dans cette optique, Human Line aspire à promouvoir une IA éthique et à but non lucratif, fondée non pas sur la manipulation ou l’usage abusif des données personnelles, mais sur les besoins humains réels, dans un cadre délimité et encadré, afin de préserver le bien-être émotionnel.
Source
Johana BHUIYAN, « ChatGPT encouraged Adam Raine’s suicidal thoughts. His family’s lawyer says OpenAI knew it was broken», The Guardian, 29 octobre 2025, en ligne : < https://www.theguardian.com/us-news/2025/aug/29/chatgpt-suicide-openai-sam-altman-adam-raine>.




