Utiliser l’IA comme thérapeute : ce n’est pas le scénario d’un épisode de Black Mirror. En mars 2025, TikTok comptait déjà plus de 16,7 millions de posts sur le sujet, avec des vidéos comme “3 Essential Chat GPT Prompts for Therapy” [1].
Alors que la santé mentale est devenue la Grande Cause nationale en 2025, les initiatives se multiplient pour rendre l’accompagnement plus accessible. Parmi elles, Moka.care propose une solution technologique conçue comme un tremplin vers l’humain.
Parce qu'on analyse tous les usages de l'IA au service de l'intérêt général, même hors du monde associatif, on a échangé avec Guillaume d'Ayguesvives, cofondateur de Moka.care, pour parler de la mise en place de leur chatbot et des défis rencontrés.
Troubles du sommeil, fatigue chronique, problèmes de concentration : 3 salariés sur 4 ont déjà ressenti un trouble de santé mentale lié à leur travail au cours des 5 dernières années [2]. Au travail, la santé mentale reste encore un sujet tabou et sensible. Les collaborateurs hésitent à se confier de peur d'être jugés, les managers ne savent pas toujours comment réagir, et les directions se retrouvent souvent démunies, faute d'outils et de formation. C'est pour briser ce tabou que Guillaume d'Ayguesvives et Pierre-Étienne Bidon ont créé leur entreprise Moka.care en 2020. Leur approche : proposer des solutions humaines et des outils technologiques pour prévenir et accompagner les troubles de santé mentale en entreprise.
Depuis la plateforme de Moka.care, les équipes d’une entreprise peuvent accéder à des ressources variées : modules d’auto-évaluation, parcours pédagogiques, boîte à outils. La nouveauté de cette plateforme ? Sunny, un chatbot intégré, qui répond aux questions des utilisateurs grâce à de l’IA générative.
Sunny repose sur un RAG (Retrieval-Augmented Generation) : c'est comme si vous mettiez à disposition de ChatGPT une bibliothèque avec uniquement des livres sur la santé mentale. Sunny ne peut puiser des réponses que dans une “bibliothèque” de contenus créés et sélectionnés par les équipes de Moka.care (articles, vidéos, et podcasts existants).
Dans le cas de Sunny, c’est le modèle de Mistral 24.07 (appelé depuis Amazon Bedrock), qui va puiser des éléments de réponses dans les sources créées par les équipes de Moka.care.
Quant à l’interface pour afficher la conversation, elle a été créée avec Rails et TurboStream.
En tout, 2 à 3 personnes ont travaillé pendant 2 mois sur ce projet (développeurs, psychologues).
Confier ses états d'âme à un chatbot n’est pas sans danger :
Plutôt que d’ignorer ces risques, Moka.care les a intégrés dès la conception de Sunny.
La tentation avec un chatbot, c’est de le laisser parler de tout. Mais quand on touche à la santé mentale, c’est justement risqué. Chez Moka.care, deux principes ont guidé le développement de Sunny :
Bref, l’IA n’est ici pas une fin en soi, mais plutôt un tremplin vers l’humain.
Quand on développe un projet avec de l’IA générative, la vraie question n’est pas seulement “que fait le chatbot ?”, mais aussi “où partent les données ?”.
Moka.care a donc choisi d’aborder la sécurité à trois niveaux :
La protection des données ne s’arrête pas à la configuration du chatbot. Sunny s’intègre dans une politique globale de confidentialité à travers :
Tu veux aussi mettre en place un chatbot avec de l’IA pour ton association ? Avant de te lancer, Guillaume, le cofondateur de Moka.care, te conseille de répondre à ces deux questions : "Quelle sera la différence par rapport à ChatGPT ?" et "Qu'est-ce que le chatbot peut faire, que ChatGPT ne peut pas faire aujourd’hui (ou ne pourra jamais faire) ?”.
Dans le cas de Moka.care, la réponse était évidente : ChatGPT n’est pas pensé pour rapidement rediriger vers un psychologue. ChatGPT est programmé pour plaire, et captiver l’utilisateur le plus longtemps possible sur l’interface. ChatGPT n’est pas non plus pensé pour prévenir les risques de dépendance affective, ou garantir la fiabilité de ses sources.
Et c’est là le point clé : sans contenu de qualité, contextualisé et produit en interne par des spécialistes de Moka.care, impossible d’encadrer correctement l’IA. Guillaume l’avoue sans détour : s'ils n'avaient pas déjà tous leurs contenus existants, ils n'auraient pas mené leur projet de chatbot. Autrement dit, l’IA seule n’a pas de valeur. Ce qui peut la rendre pertinente, c’est le cadre qu’on lui donne et la connaissance métier qu’on lui transmet pour éviter les dérives.
L'approche de Moka.care aspire à faire de l'IA un outil au service de la santé mentale, sans remplacer l'humain. En encadrant leur compagnon virtuel et en le concevant comme un pont vers l'accompagnement humain, Moka.care s’inscrit dans la volonté de créer une IA dotée de garde-fous et nous rappelle que la véritable réponse se trouve du côté de l’humain.
[1] Koronka, P. (2025, 22 avril). Young people turn to AI for therapy over long NHS waiting lists. The Times. https://www.thetimes.com/uk/healthcare/article/young-people-using-chatgpt-therapy-nhs-waiting-lists-sxjp9b6hj
[2] Santé mentale : grande cause nationale 2025. (s. d.). https://www.moka.care/grande-enquete-sante-mentale-travail-2025
[3] How AI and human behaviors shape psychosocial effects of chatbot use: a longitudinal controlled study – MIT Media Lab. (n.d.). MIT Media Lab. https://www.media.mit.edu/publications/how-ai-and-human-behaviors-shape-psychosocial-effects-of-chatbot-use-a-longitudinal-controlled-study/