Zelfs simpele samenvattingen van historische gebeurtenissen blijken invloed te hebben op hoe mensen over onderwerpen denken.
Foto: Unsplash
Het is zo makkelijk: even de AI-chatbot erbij pakken om wat op te zoeken. Met een paar klikken heb je zo een antwoord. Handig, toch? Ja, maar niet altijd even risicoloos. Uit nieuw onderzoek van de Amerikaanse Yale University (New Haven) blijkt nu ook dat AI-chatbots je mening kunnen beïnvloeden.
Zelfs simpele samenvattingen van historische gebeurtenissen blijken invloed te hebben op hoe mensen over onderwerpen denken.
Overigens schreef Metro vorige week ook dat AI ‘ons ook dommer kan maken‘.
Ook zonder bedoeling toch invloed
Eerder onderzoek liet al zien dat AI meningen kan sturen als dat bewust gebeurt. Maar deze studie toont aan dat het óók gebeurt zonder die bedoeling. Zelfs feitelijke antwoorden, zoals samenvattingen van historische gebeurtenissen, kunnen subtiel overtuigend werken.
Volgens onderzoeker Daniel Karell komt dat door iets wat hij in het onderzoek omschrijft als ‘latente biases’. Latente biases zijn verborgen vooroordelen in een systeem, zoals een AI-chatbot. Ze zitten er niet bewust in, maar ontstaan tijdens het trainen van het model. „Zelfs als de informatie klopt en niemand probeert je te overtuigen, kan het je mening beïnvloeden.”
Kleine effecten van AI stapelen zich op
Voor het onderzoek, gepubliceerd in het wetenschappelijke tijdschrift PNAS Nexus, kregen bijna tweeduizend deelnemers samenvattingen te lezen van historische gebeurtenissen, zoals stakingen en studentenprotesten. Die teksten kwamen of van AI, of van Wikipedia.
Wat blijkt? Mensen die AI-samenvattingen lazen, ontwikkelden vaker een iets liberalere kijk dan mensen die Wikipedia-teksten lazen. Als de AI bewust conservatiever was ingesteld, verschoof de mening juist die kant op.
De verschillen zijn klein, benadrukken de onderzoekers. Maar wie vaak AI gebruikt, kan die invloed opstapelen.
Minder transparant dan Wikipedia
Volgens de onderzoekers zit daar ook het risico. Waar Wikipedia open is over hoe artikelen tot stand komen, is dat bij AI veel minder zichtbaar.
Karell: „Bedrijven die deze modellen maken, hebben in potentie invloed op hoe mensen denken. Dat is een ongemakkelijke gedachte.”
De gevaren van AI-chatbots
Metro schreef al vaker over de gevaren van AI-chatbots. Zo trokken experts vorige week nog aan de bel over het fenomeen van ‘AI brain fry’: het risico dat we belangrijke vaardigheden te verliezen en raken we mentaal overbelast.
Ook kloppen steeds meer mensen aan bij AI-chatbots als ze zich slecht voelen. Handig, altijd beschikbaar en nooit oordelend. Maar niet altijd even veilig: onderzoekers waarschuwen dat kunstmatige gesprekspartners geen vervanging zijn voor echte therapeuten. Hetzelfde geldt voor AI-chatbots gebruiken als stemwijzer, ook geen slim idee.
Dit zijn de best gelezen artikelen van dit moment:
Foutje gezien? Mail ons. Wij zijn je dankbaar.






















