Un chatbot au service de la santé mentale : le projet de Moka.care et ses défis

Utiliser l’IA comme thérapeute : ce n’est pas le scénario d’un épisode de Black Mirror. En mars 2025, TikTok comptait déjà plus de 16,7 millions de posts sur le sujet, avec des vidéos comme “3 Essential Chat GPT Prompts for Therapy” [1].

Alors que la santé mentale est devenue la Grande Cause nationale en 2025, les initiatives se multiplient pour rendre l’accompagnement plus accessible. Parmi elles, Moka.care propose une solution technologique conçue comme un tremplin vers l’humain.

Parce qu'on analyse tous les usages de l'IA au service de l'intérêt général, même hors du monde associatif, on a échangé avec Guillaume d'Ayguesvives, cofondateur de Moka.care, pour parler de la mise en place de leur chatbot et des défis rencontrés.

Moka.care : briser le tabou de la santé mentale au travail

Troubles du sommeil, fatigue chronique, problèmes de concentration : 3 salariés sur 4 ont déjà ressenti un trouble de santé mentale lié à leur travail au cours des 5 dernières années [2]. Au travail, la santé mentale reste encore un sujet tabou et sensible. Les collaborateurs hésitent à se confier de peur d'être jugés, les managers ne savent pas toujours comment réagir, et les directions se retrouvent souvent démunies, faute d'outils et de formation. C'est pour briser ce tabou que Guillaume d'Ayguesvives et Pierre-Étienne Bidon ont créé leur entreprise Moka.care en 2020. Leur approche : proposer des solutions humaines et des outils technologiques pour prévenir et accompagner les troubles de santé mentale en entreprise.

L'équipe de choc !

Un produit tech au service de la santé mentale

Depuis la plateforme de Moka.care, les équipes d’une entreprise peuvent accéder à des ressources variées : modules d’auto-évaluation, parcours pédagogiques, boîte à outils. La nouveauté de cette plateforme ? Sunny, un chatbot intégré, qui répond aux questions des utilisateurs grâce à de l’IA générative.

Sunny repose sur un RAG (Retrieval-Augmented Generation) : c'est comme si vous mettiez à disposition de ChatGPT une bibliothèque avec uniquement des livres sur la santé mentale. Sunny ne peut puiser des réponses que dans une “bibliothèque” de contenus créés et sélectionnés par les équipes de Moka.care (articles, vidéos, et podcasts existants).

Dans le cas de Sunny, c’est le modèle de Mistral 24.07 (appelé depuis Amazon Bedrock), qui va puiser des éléments de réponses dans les sources créées par les équipes de Moka.care.

Quant à l’interface pour afficher la conversation, elle a été créée avec Rails et TurboStream.

En tout, 2 à 3 personnes ont travaillé pendant 2 mois sur ce projet (développeurs, psychologues).

Santé mentale et technologie : les problèmes qu’il IA

Confier ses états d'âme à un chatbot n’est pas sans danger :

  • L’absence de limites : un modèle généraliste, comme ChatGPT, peut inciter un utilisateur en détresse à adopter des comportements dangereux (on pense au cas d’Adam en Californie).
  • L’isolement social : l’attachement émotionnel à un chatbot peut renforcer la dépendance et réduire les interactions sociales (cf. les résultats de l’étude du MIT [3]).
  • La sensibilité des données : les confidences liées à la santé mentale constituent des données ultrasensibles, qui doivent être traitées avec le plus haut niveau de protection.

Sunny, le compagnon de Moka.care : un chatbot sous contraintes

Plutôt que d’ignorer ces risques, Moka.care les a intégrés dès la conception de Sunny.

1) Une IA volontairement limitée

La tentation avec un chatbot, c’est de le laisser parler de tout. Mais quand on touche à la santé mentale, c’est justement risqué. Chez Moka.care, deux principes ont guidé le développement de Sunny :

  1. Éviter les dérives des conversations : grâce au principe du Retrieval Augmented Generation (RAG), Sunny s’appuie uniquement sur des contenus validés et produits par les experts de Moka.care. Pas d’improvisation, pas de “mauvais conseil” venu d’Internet, et surtout pas de réponse hors sujet.
  2. Réorienter rapidement vers l’humain : Sunny n’est pas là pour remplacer un psy. Il est conçu pour limiter la durée des échanges et orienter vers une prise en charge humaine dès que nécessaire. Selon Moka.care, 10 % des utilisateurs qui testent Sunny finissent par réserver une séance avec un psychologue — souvent pour la première fois.

Bref, l’IA n’est ici pas une fin en soi, mais plutôt un tremplin vers l’humain.

2) Une vigilance sur la sécurité des données

Quand on développe un projet avec de l’IA générative, la vraie question n’est pas seulement “que fait le chatbot ?”, mais aussi “où partent les données ?”.

Moka.care a donc choisi d’aborder la sécurité à trois niveaux :

  • L’application utilisée pour parler à Sunny : aucune donnée saisie par les utilisateurs dans Sunny n’est réutilisée pour entraîner le modèle de Mistral 24.07. Les conversations servent uniquement au fonctionnement immédiat, et non à des fins marketing.
  • L’infrastructure technique : l’accès aux données est soumis à une gouvernance bien définie. Tout est journalisé, anonymisé et chiffré (TLS, AES-256). Seuls les administrateurs habilités peuvent intervenir.
  • Le modèle d’IA générative utilisé (LLM) : En optant pour Mistral dans la configuration de Sunny, Moka.care a fait le choix de faire transiter les données sur des serveurs en Europe, et de maintenir la protection des données dans un cadre légal européen.

3) Une politique de protection des données

La protection des données ne s’arrête pas à la configuration du chatbot. Sunny s’intègre dans une politique globale de confidentialité à travers :

  • Une charte de confidentialité accessible sur leur site, et un service dédié pour toute question (dpo@moka.care)
  • Une garantie pour les utilisateurs de leurs droits d’accès, de rectification et de suppression de leurs données
  • Des audits menés par un tiers indépendant, Vaadata, pour certifier le respect des standards de sécurité (ISO 27001, HDS, RGPD).

L’IA, c’est comme une peinture : quand elle est encadrée, c’est mieux.

Tu veux aussi mettre en place un chatbot avec de l’IA pour ton association ? Avant de te lancer, Guillaume, le cofondateur de Moka.care, te conseille de répondre à ces deux questions : "Quelle sera la différence par rapport à ChatGPT ?" et "Qu'est-ce que le chatbot peut faire, que ChatGPT ne peut pas faire aujourd’hui (ou ne pourra jamais faire) ?”.

Dans le cas de Moka.care, la réponse était évidente : ChatGPT n’est pas pensé pour rapidement rediriger vers un psychologue. ChatGPT est programmé pour plaire, et captiver l’utilisateur le plus longtemps possible sur l’interface. ChatGPT n’est pas non plus pensé pour prévenir les risques de dépendance affective, ou garantir la fiabilité de ses sources.

Et c’est là le point clé : sans contenu de qualité, contextualisé et produit en interne par des spécialistes de Moka.care, impossible d’encadrer correctement l’IA. Guillaume l’avoue sans détour : s'ils n'avaient pas déjà tous leurs contenus existants, ils n'auraient pas mené leur projet de chatbot. Autrement dit, l’IA seule n’a pas de valeur. Ce qui peut la rendre pertinente, c’est le cadre qu’on lui donne et la connaissance métier qu’on lui transmet pour éviter les dérives.

En résumé

L'approche de Moka.care aspire à faire de l'IA un outil au service de la santé mentale, sans remplacer l'humain. En encadrant leur compagnon virtuel et en le concevant comme un pont vers l'accompagnement humain, Moka.care s’inscrit dans la volonté de créer une IA dotée de garde-fous et nous rappelle que la véritable réponse se trouve du côté de l’humain.

Ça coule de (nos) sources :

[1] Koronka, P. (2025, 22 avril). Young people turn to AI for therapy over long NHS waiting lists. The Times. https://www.thetimes.com/uk/healthcare/article/young-people-using-chatgpt-therapy-nhs-waiting-lists-sxjp9b6hj

[2] Santé mentale : grande cause nationale 2025. (s. d.). https://www.moka.care/grande-enquete-sante-mentale-travail-2025

[3] How AI and human behaviors shape psychosocial effects of chatbot use: a longitudinal controlled study – MIT Media Lab. (n.d.). MIT Media Lab. https://www.media.mit.edu/publications/how-ai-and-human-behaviors-shape-psychosocial-effects-of-chatbot-use-a-longitudinal-controlled-study/