Comment l’IA impacte la santé mentale?
BRUXELLES 03/04 - Comment l'IA peut affecter notre santé mentale ? Des algorithmes addictifs à l'effet des filtres réalistes en passant par Chatgpt ou Eliza et leurs impacts, 4 experts ont fait le point durant la semaine européenne de l’intelligence artificielle, lors d’une session organisée par CLAIRE ( (Confederation of Laboratories for Artificial Intelligence Research in Europe)1.
« Nombreuses recherches montrent un lien étroit entre l'addiction aux smartphones, le rétrécissement de la matière grise du cerveau et la démence numérique, un terme générique désignant l'apparition de l'anxiété et de la dépression et la détérioration de la mémoire, de la capacité d'attention, de l'estime de soi et du contrôle des impulsions. Ce dernier facteur accroît la dépendance. Un phénomène connu sous le nom de "tick tock brain" », explique d'emblée CLAIRE dans une vidéo.
Hannah Lea Dycast, coach systémique, formatrice en pleine conscience et membre de CLAIRE : « La recherche a montré au cours des dernières années que l'IA peut avoir un impact négatif sur la santé mentale en renforçant les systèmes qui tendent à rendre certains consommateurs plus dépendants du produit. De plus, il a été démontré depuis le début de l'IA que les gens peuvent créer des relations très subjectives avec les systèmes », poursuit-elle.
Comment les algorithmes de l'IA influencent-ils nos comportements sociaux ?
Le système de récompense est un aspect important comme la poussée de dopamine qui l'accompagne, explique la conférencière. « La façon dont nous voulons nous voir représentés ou dont nous voulons obtenir une reconnaissance sociale, puis l'aspect de la reconnaissance physique est quelque chose d'assez important également, comme la façon dont nous nous comparons. »
Nous y sommes également parfois « améliorés », explique Hannah Lea Dycast. « Plusieurs filtres peuvent être appliqués et nous pouvons faire des montages photos. Ce n'est donc pas vraiment réaliste par rapport à la vraie personne. Ces filtres déforment notre personnalité, la façon dont nous nous percevons dans le monde extérieur. Ils créent une sorte de monde parallèle numérique au monde réel. Et cela diminue aussi la façon dont nous nous percevons, notre estime de soi ainsi que notre valeur personnelle. Cela a donc un impact critique sur la façon dont nous nous dépeignons et dont nous nous percevons. »
Ensuite, il y a également la façon dont nous recommandons des produits en ligne, poursuit-elle. « La façon dont nous voyons les produits ou les placements de produits dans le monde numérique et la façon dont nous sommes incités à acheter ces produits et à interagir pour consommer plus. L'impact est donc très large, et il englobe les trois facettes de la récompense, l'aspect de la comparaison sociale et le système de recommandation. »
La polarisation est un des autres dangers des algorithmes
Elias Fernandez, chercheur en télécommunication et spécialisé en IA (VUB) : « l'objectif des réseaux sociaux est de faire en sorte que les gens s'y investissent le plus possible. Et ils y parviennent de plusieurs manières. L'une d'entre elles consiste à recommander des liens. Nous n'entrons plus en contact uniquement avec des personnes sur la base de nos propres préférences, mais un algorithme nous recommande les personnes avec lesquelles nous devrions nous connecter, ce qui peut en fait créer des liens très uniformes dans ce réseau, des boucles dans lesquelles vous pouvez finir par chercher des informations. Cela crée une polarisation. Vous voyez toujours les mêmes choses et cela peut aussi créer une sorte de réalité parallèle. Cela renforce vos opinions personnelles ou certaines opinions extrêmes. Et cela peut aussi être un peu dangereux. »
Selon Elias Fernandez, il s'agit d'une manipulation très forte. « En particulier en ce qui concerne le type d'information que vous recevez, parce que l'information détermine le comportement, les termes et les opinions. La façon dont les systèmes sont conçus affecte également beaucoup nos choix quotidiens. C'est le cas par exemple dans le choix de la musique si vous utilisez Youtube notamment, mais il existe d'autres situations de la vie dans lesquelles vous donnez un contrôle total. Prenons le cas de Google Maps : du temps où nous choisissions nous-mêmes comment aller quelque part et où nous nous perdions, nous nous arrêtions dans un bar et nous trouvions un nouvel endroit. Aujourd'hui, Google Maps détermine sans que vous n'y pensiez. Vous déléguez complètement. La décision revient à Google Maps. Google peut décider quel itinéraire envoyer aux gens en fonction des entreprises qui ont décidé d'influencer où les gens devraient aller dans une zone précise. Il s'agit d'une manipulation assez forte dont nous sommes complètement inconscients, et je pense que c'est très inquiétant. Il n'y a pas encore beaucoup de recherches sur les façons dont l'IA nous incite à agir », conclut-il.
Il y a quelque temps, un citoyen belge s'est malheureusement suicidé après avoir entamé une conversation pendant près de 6 semaines avec un robot conversationnel. Les chatbots et l'IA générative en général sont-ils vraiment capables de manipuler émotionnellement les utilisateurs de manière délibérée ? Et si c'est le cas, quelles sont les préoccupations éthiques autour de cette question ?
Hannah Lea Dykast : « Je pense que les chatbots et chatgpt peuvent créer un certain désarroi chez certaines personnes qui pourraient imaginer que les développeurs de cette technologie sont plus brillants et plus intelligents qu'eux et donc il faut être assez alertes que pour savoir qu'il ne faut pas laisser une machine penser pour soi."
"Il faut garder à l'esprit qu'il n'y a pas de véritable compétence derrière tout cela. Tout provient de bases de données, d'exemples dont il s'inspire. Et il n'y a pas de véritable empathie qu'une IA puisse créer, ni de véritables émotions. C'est donc quelque chose que nous devons garder à l'esprit lorsque nous examinons ces systèmes, que nous les comprenons ou que nous interagissons avec eux. Il est important de ne pas humaniser et personnaliser la technologie », insiste-t-elle. « L'IA n'est pas plus qu'un algorithme. Il y a toujours une technologie derrière tout ça, même si d'une certaine manière, elle est mise en œuvre par des humains. Et je pense que la sensibilisation est un aspect très important. Il faut éduquer les gens à ce sujet », conclut-elle.
Carl MÖrch, chercheur en psychologie, spécialisé dans l'utilisation de l'IA et des données dans le domaine de la santé mentale et co-président de CLAIRE : « Dans le cas d'Eliza, il est intéressant de noter qu'il s'agit d'un problème relativement nouveau, même si depuis des années, il a été relevé que ces chatbots étaient des outils qui pouvaient être utilisés par des personnes en détresse mentale ou des personnes ayant des vulnérabilités de toutes sortes. Il y a eu en réalité une sorte d'aveuglement volontaire, car la question est très complexe et il n'existe pas de validation clinique de ces systèmes », explique le chercheur.
« D'autre part, il existe une divergence entre les lignes directrices déontologiques très spécifiques que vous devez respecter, et les nouvelles start up qui ne suivent pas forcément les normes strictes sur chaque aspect. Il y a bien des normes ISO, mais dès qu'il s'agit de santé mentale, on voit parfois apparaître des initiatives qui ne respectent pas nécessairement ces normes. Et je pense que cette divergence est réelle et Eliza en est un nouvel exemple», observe-t-il.
Pour Carl MÖrch, Il est évident qu'il n'y a pas assez de professionnels de la santé mentale impliqués dans la conception de ces systèmes. « Je pense que c'est parfois par ignorance ou parfois aussi par manque de compréhension de la façon dont ils peuvent contribuer. »
Si l'IA comporte de nombreux dangers en santé mentale, elle représente cependant des avantages dans le domaine de la santé mentale et peut dans de nombreux cas aider les patients et les experts médicaux.
Dr Giovanni Briganti, titulaire de la chaire en IA et Médecine Digitale - UMons : « il existe de nombreuses initiatives qui introduisent l'IA en psychiatrie. Avec celles-ci nous pouvons mieux étudier les troubles mentaux et mieux comprendre ce qu'ils sont. » Il ajoute que « du point de vue de la recherche et de l'enseignement, l'intelligence artificielle a vraiment rationalisé le processus qui permet de passer de la recherche clinique à l'application clinique et aux opportunités commerciales. »
De nombreuses applications permettent de répondre à des besoins, explique le Dr Briganti. "Dans le domaine de la santé mentale, il y a un manque de disponibilité et de main d'œuvre pour la prise en charge des patients. Mais il existe des modèles qui peuvent identifier la bonne voie de traitement pour un patient psychiatrique avec la base de données. Identifier si un patient appartient à l'un ou l'autre phénotype d'un trouble mental lors de son traitement, identifier des modèles personnalisés de l'évolution d'une maladie donnée pour prédire quel sera l'impact d'une variation des symptômes sur l'état mental de celui-ci. C'est bien sûr extrêmement important en psychiatrie, car nous voulons prédire les cas graves, les hospitalisations et l'exclusion de la société dans son ensemble », détaille-t-il.
L'IA permet donc d'alléger le travail du médecin, explique le Dr Briganti. « De mon côté, je m'efforce de voir mes patients une fois par mois, mais dans les meilleurs cas, je ne peux les voir qu'une fois tous les deux mois. Et pour un patient atteint d'une maladie mentale grave ou même modérée, ce n'est pas suffisant. C'est là que l'IA intervient avec des solutions innovantes, parce qu'elles peuvent m'aider à surveiller la santé de mon patient lorsqu'il n'est pas chez lui, lorsqu'il n'est pas avec moi en consultation ou lorsqu'il n'est pas hospitalisé », poursuit-il. « Nous sommes en train de mettre en place un projet d'horizon complet pour construire un jumeau numérique pour les troubles de la santé mentale. »
« Par ailleurs, nous voyons l'émergence de systèmes qui effectuent par exemple des diagnostics ou des technologies de l'information pouvant indiquer si un patient est susceptible de devenir agressif sur la base de la reconnaissance faciale. Bien entendu, l'éthique de ces systèmes est discutable et doit être examinée », reconnait-il.
Si une tragédie a eu lieu malheureusement avec Eliza il y a quelques semaines, les applications et les chatbots peuvent dans de nombreux cas aussi aider une personne dans le besoin.
« Combien de personnes peuvent être aidées ? Nous ne le saurons jamais », explique le Dr Brigani, « car nous manquons de validation clinique des outils. Cela ne cessera jamais de nous dire que nous avons besoin de toute urgence d'un plan européen pour la validation clinique des solutions d'IA qui arrivent sur le marché et qui traitent les personnes pour la santé mentale. »
« l'IA pousse la psychiatrie vers un mieux », conclut Briganti. « Elle nous aide à mieux comprendre les maladies, leur complexité, leur fonctionnement et la façon dont elles se manifestent chez les patients, et à identifier le bon traitement. Tout le monde peut participer à la révolution, mais il faut le faire de la bonne manière et en ciblant les bons cas d'utilisation. »
Une réglementation pour cadrer l'IA
La réglementation et la normalisation liées à l'application de l'IA en tant qu'algorithme, sont-elles un premier pas vers la création d'un cadre de protection de la santé mentale ?
« Si l'IA peut faire beaucoup de bonnes choses, tout dépend de l'usage que l'on en fait et du contrôle », explique Giovanni Briganti. « Il est donc nécessaire de la réguler et différentes mesures sont déjà mises en place en Europe comme l'Intelligence artificial act. »
« Je trouve que c'est une question difficile », nuance Elias Fernandez, « parce que d'un côté, nous ne voulons pas entraver la recherche. Et il est très difficile de réglementer quelque chose dont nous ne connaissons pas la direction. D'autre part, il est important de mettre en place des freins ou des mécanismes pour empêcher l'utilisation généralisée de certaines applications qui n'ont pas été testées dans un contexte social et qui peuvent avoir un impact néfaste. »
La recherche va beaucoup plus vite que les politiciens ou la réglementation. Donc, à un moment donné, du point de vue de la réglementation, nous devrions aussi commencer à réfléchir à la direction que cela va prendre, au lieu de réagir, et déjà mettre en place des mesures qui pourraient se produire à l'avenir et toujours avoir du retard sur la recherche.
1. "AI and Mental Health Series" de CLAIRE a eu lieu le 29/03 lors de la semaine européenne de l'Intelligence Artificielle (European AI Week) organisée par le SPF BOSA en collaboration avec les écosystèmes fédéraux (AI4Belgium, Blockchain4Belgium, etc.)