Hoe kan AI de geestelijke gezondheid beïnvloeden?
BRUSSEL 04/04 - Hoe kan AI onze geestelijke gezondheid beïnvloeden? Van verslavende algoritmen tot het effect van realistische filters tot Chatgpt of Eliza en hun impact, 4 experts maakten de balans op tijdens de Europese week van de kunstmatige intelligentie, tijdens een sessie georganiseerd door CLAIRE ( Confederation of Laboratories for Artificial Intelligence Research in Europe).
"Een grote hoeveelheid onderzoek toont een sterk verband aan tussen smartphoneverslaving, hersenkrimp en digitale dementie, een overkoepelende term voor het ontstaan van angst en depressie en de achteruitgang van geheugen, aandachtsspanne, zelfvertrouwen en impulscontrole. Deze laatste factor versterkt de verslaving. Een fenomeen dat bekend staat als 'tick tock brain'," legt CLAIRE aan het begin uit in een video.
Annah Lea Dycast, CLAIRE-lid, systemisch coach, mindfulnesstrainer: "Onderzoek heeft de afgelopen jaren aangetoond dat AI een negatief effect kan hebben op de geestelijke gezondheid, doordat het systemen versterkt die sommige consumenten afhankelijker maken van het product. Daarnaast is sinds het begin van AI aangetoond dat mensen zeer subjectieve relaties kunnen aangaan met systemen," vervolgt ze.
Hoe beïnvloeden AI-algoritmen ons sociaal gedrag?
Het beloningssysteem is een belangrijk aspect, evenals de bijbehorende dopamine rush, legt ze uit. "Hoe we onszelf vertegenwoordigd willen zien of hoe we sociale erkenning willen krijgen, en dan is het fysieke erkenningsaspect ook iets heel belangrijks, zoals hoe we onszelf vergelijken."
Ook daar worden we soms "verbeterd", aldus Annah Lea Dycast. "Er kunnen verschillende filters worden toegepast en we kunnen fotomontages maken. Het is dus niet echt realistisch ten opzichte van de echte persoon. Deze filters vervormen onze persoonlijkheid, de manier waarop we onszelf waarnemen in de buitenwereld. Ze creëren een soort digitale parallelle wereld aan de echte wereld. En het vermindert ook de manier waarop we onszelf zien, ons gevoel van eigenwaarde en onze eigenwaarde. Het heeft dus een kritisch effect op hoe we onszelf afbeelden en hoe we onszelf zien.
Dan is er ook nog de manier waarop we online producten aanbevelen, vervolgt ze. "Hoe we producten of productplaatsingen in de digitale wereld zien en hoe we worden aangemoedigd om die producten te kopen en te interageren om meer te consumeren. De impact is dus heel breed en omvat de drie facetten van beloning, het sociale vergelijkingsaspect en het aanbevelingssysteem."
Polarisatie is een ander gevaar van algoritmen
Elias Fernandez, telecomonderzoeker en AI-specialist (VUB): "Het doel van sociale netwerken is om mensen zoveel mogelijk bij hen te betrekken. En dat doen ze op verschillende manieren. Eén manier is door links aan te bevelen. We connecteren niet meer alleen met mensen op basis van onze eigen voorkeuren, maar een algoritme beveelt aan met wie we moeten connecteren, wat eigenlijk heel uniforme links in dat netwerk kan creëren, lussen waarin je uiteindelijk informatie kunt zoeken. Het creëert polarisatie. Je ziet steeds weer dezelfde dingen en het kan ook een soort parallelle werkelijkheid creëren. Het versterkt je persoonlijke meningen of bepaalde extreme meningen. En het kan ook een beetje gevaarlijk zijn.
Volgens Elias Fernandez is dit een zeer sterke manipulatie. "Vooral wat betreft het soort informatie dat je ontvangt, want informatie bepaalt gedrag, termen en meningen. De manier waarop systemen zijn ontworpen heeft ook veel invloed op onze dagelijkse keuzes. Dat is bijvoorbeeld het geval bij de muziekkeuze als je youtube gebruikt, maar er zijn ook andere situaties in het leven waarin je volledige controle geeft. Neem het geval van Google Maps: vroeger kozen we zelf hoe we ergens moesten komen en als we verdwaalden, stopten we bij een bar en vonden we een nieuwe plek. Vandaag bepaalt Google Maps zonder dat je er zelfs maar over nadenkt. Je delegeert volledig. Het is allemaal aan Google Maps. Google kan beslissen welke route mensen moeten volgen, gebaseerd op welke bedrijven besloten hebben om te beïnvloeden waar mensen heen moeten in een bepaald gebied. Het is een vrij sterke manipulatie waar we ons totaal niet bewust van zijn, en ik vind dat zeer verontrustend. Er is nog niet veel onderzoek gedaan naar de manieren waarop AI ons beïnvloedt om te handelen", besluit hij.
Enige tijd geleden pleegde een Belgische burger helaas zelfmoord nadat hij bijna 6 weken lang een gesprek had gevoerd met een chatbot. Zijn chatbots en generatieve AI in het algemeen echt in staat om gebruikers opzettelijk emotioneel te manipuleren? En zo ja, wat zijn de ethische bezwaren hieromtrent?
Annah Lea Dykast: "Ik denk dat chatbots en chatgpt een zekere verwarring kunnen veroorzaken bij sommige mensen die zich zouden kunnen voorstellen dat de ontwikkelaars van deze technologie slimmer en helderder zijn dan zijzelf en dus moet je alert genoeg zijn om te weten dat je een machine niet voor jou moet laten denken.
Je moet in gedachten houden dat er geen echte vaardigheid achter zit. Het komt allemaal uit databases, uit voorbeelden waaruit het put. En er is geen echte empathie die een AI kan creëren, geen echte emoties. Dus dat is iets wat we in gedachten moeten houden als we naar deze systemen kijken, ze begrijpen of ermee interageren. Het is belangrijk om technologie niet te vermenselijken en te personaliseren", benadrukt ze. "AI is niet meer dan een algoritme. Er zit nog steeds technologie achter, ook al wordt die in sommige opzichten door mensen geïmplementeerd. En ik denk dat bewustzijn een heel belangrijk aspect is. Je moet mensen erover voorlichten", besluit ze.
Carl MÖRCH, onderzoeker psychologie, gespecialiseerd in het gebruik van AI en data op het gebied van geestelijke gezondheid en CLAIRE co-voorzitter: "In het geval van Eliza is het interessant om op te merken dat dit een relatief nieuwe kwestie is, ook al wordt al jaren opgemerkt dat deze chatbots hulpmiddelen zijn die gebruikt kunnen worden door mensen in geestelijke nood of mensen met allerlei kwetsbaarheden. Er is eigenlijk een soort moedwillige blindheid geweest, omdat de kwestie erg complex is en er geen klinische validatie van deze systemen is," legt de onderzoeker uit.
"Aan de andere kant is er een discrepantie tussen de zeer specifieke ethische richtlijnen die je moet volgen, en de nieuwe start-ups die niet noodzakelijk de strikte normen voor elk aspect volgen. Er zijn ISO-normen, maar als het om geestelijke gezondheid gaat, zie je soms initiatieven die die normen niet noodzakelijkerwijs volgen. En ik denk dat deze divergentie reëel is en Eliza is daar een ander voorbeeld van," merkt hij op.
Voor Carl Mork is het duidelijk dat er niet genoeg professionals uit de geestelijke gezondheidszorg betrokken zijn bij het ontwerp van deze systemen. "Ik denk dat het soms uit onwetendheid is of soms ook uit een gebrek aan inzicht in hoe ze kunnen bijdragen."
Hoewel AI veel gevaren heeft in de geestelijke gezondheidszorg, heeft het ook voordelen op het gebied van geestelijke gezondheid en kan het in veel gevallen patiënten en medische experts helpen.
Dr. Giovanni Briganti, Chair in AI and Digital Medicine - UMons: "Er zijn veel initiatieven die AI introduceren in de psychiatrie. Hiermee kunnen we psychische stoornissen beter bestuderen en beter begrijpen wat ze zijn." Hij voegt eraan toe dat "vanuit het perspectief van onderzoek en onderwijs, kunstmatige intelligentie echt het proces heeft gestroomlijnd om van klinisch onderzoek naar klinische toepassing en commerciële mogelijkheden te gaan."
Er zijn veel toepassingen die in behoeften voorzien," zegt Dr. Briganti. In de geestelijke gezondheidszorg is er een gebrek aan beschikbaarheid en mankracht voor patiëntenbeheer. Maar er zijn modellen die met de database het juiste behandeltraject voor een psychiatrische patiënt kunnen vaststellen. Tijdens de behandeling identificeren of een patiënt tot het ene of het andere fenotype van een psychische stoornis behoort, gepersonaliseerde modellen van het verloop van een bepaalde ziekte identificeren om te voorspellen welke impact een variatie in symptomen zal hebben op de psychische toestand van de patiënt. Dit is natuurlijk uiterst belangrijk in de psychiatrie, omdat we ernstige gevallen, ziekenhuisopnames en uitsluiting uit de samenleving als geheel willen voorspellen," legt hij uit.
AI maakt het dus mogelijk om de werklast van de arts te verlichten, legt dr. Briganti uit. "Ik probeer mijn patiënten eens per maand te zien, maar in de beste gevallen kan ik ze slechts eens in de twee maanden zien. En voor een patiënt met een ernstige of zelfs matige psychische aandoening is dat niet genoeg. Dat is waar AI met innovatieve oplossingen komt, omdat het me kan helpen de gezondheid van mijn patiënt te monitoren wanneer ze niet thuis zijn, wanneer ze niet bij mij in consult zijn of wanneer ze niet in het ziekenhuis zijn opgenomen", vervolgt hij. "We zijn bezig met het opzetten van een volledig horizonproject om een digitale tweeling te bouwen voor psychische aandoeningen."
"Daarnaast zien we de opkomst van systemen die bijvoorbeeld diagnostiek uitvoeren of informatietechnologie die op basis van gezichtsherkenning kan aangeven of een patiënt waarschijnlijk agressief zal worden. De ethiek van deze systemen is natuurlijk twijfelachtig en moet worden onderzocht," erkent hij.
Hoewel er enkele weken geleden helaas een tragedie plaatsvond met Eliza, kunnen apps en chatbots in veel gevallen ook iemand in nood helpen.
"Hoeveel mensen kunnen worden geholpen? We zullen het nooit weten," zegt Dr. Brigani, "omdat we klinische validatie van de tools missen. Dit zal ons blijven vertellen dat we dringend een Europees plan nodig hebben voor klinische validatie van AI-oplossingen die op de markt komen en mensen behandelen voor geestelijke gezondheid."
"AI duwt de psychiatrie naar een betere plek," concludeert Briganti. "Het helpt ons om ziekten beter te begrijpen, de complexiteit ervan, hoe ze werken en hoe ze zich manifesteren bij patiënten, en om de juiste behandeling te bepalen. Iedereen kan deel uitmaken van de revolutie, maar het moet wel op de juiste manier gebeuren en gericht zijn op de juiste use cases."
Regelgeving om AI in te kaderen
Is regelgeving en standaardisatie in verband met de toepassing van AI als algoritme een eerste stap naar het creëren van een kader om de geestelijke gezondheid te beschermen?
"Hoewel AI veel goede dingen kan doen, hangt alles af van hoe het wordt gebruikt en gecontroleerd", zegt Giovanni Briganti. "Het is daarom noodzakelijk om het te reguleren en in Europa zijn al verschillende maatregelen van kracht, zoals de Intelligence artificial act."
"Ik vind het een moeilijke kwestie", zegt Elias Fernandez, "want aan de ene kant willen we onderzoek niet belemmeren. En het is heel moeilijk om iets te reguleren waarvan we de richting niet kennen. Anderzijds is het belangrijk om remmen of mechanismen in te stellen om te voorkomen dat bepaalde toepassingen die niet in een sociale context zijn getest en die een schadelijk effect kunnen hebben, op grote schaal worden gebruikt."
Onderzoek gaat veel sneller dan politici of regelgeving. Dus op een gegeven moment moeten we vanuit het oogpunt van regelgeving ook gaan nadenken over waar dit heen gaat, in plaats van te reageren en nu al maatregelen te nemen die in de toekomst kunnen gebeuren en nog steeds achterlopen op het onderzoek.
1 Tijdens een sessie voorgesteld door CLAIRE (Confederation of Laboratories for Artificial Intelligence Research in Europe) op de European Artificial Intelligence Week, georganiseerd door de FOD BOSA in samenwerking met de federale ecosystemen (AI4Belgium, Blockchain4Belgium