Künstliche Intelligenzen gelten eher als förderlich für Verschwörungstheorien. Dank der immer besser werdenden KI-Systeme können einfacher als jemals zuvor gefälschte Inhalte erzeugt und Menschen getäuscht werden. KI-generierte Falschinformationen wirken Studien zufolge besonders überzeugend. Aber auch andersrum funktioniert das: Eine Studie mit mehr als 2.000 Personen, die an typische Verschwörungstheorien glaubten und dann über diese mit einer künstlichen Intelligenz diskutierten, zeigte, dass die Proband:innen nach der Diskussion immerhin etwa 20 Prozent weniger überzeugt von ihren Haltungen waren.


KI gegen Verschwörungstheorien

Durchgeführt wurde diese Studie von einem Team rund um Thomas Costello vom Massachusetts Institute of Technology (MIT). Die Forscher:innen wollten zeigen, dass die Überzeugungsfähigkeiten von künstlicher Intelligenz auch für Gutes eingesetzt werden können. Dabei kam der Chatbot ChatGPT-4 Turbo zum Einsatz, der in zwei Experimenten mit insgesamt über 2.000 Teilnehmer:innen Verschwörungstheorien individuell, auf Fakten basierend und nachvollziehbar widerlegen konnte. Im Ergebnis waren die Teilnehmer:innen danach weniger von ihrer jeweiligen Verschwörungstheorie überzeugt.


Der Glaube an Verschwörungstheorien ist bekanntermaßen hartnäckig. Einflussreiche Hypothesen gehen davon aus, dass sie wichtige psychologische Bedürfnisse befriedigen und somit nicht für Gegenbeweise zugänglich sind. Unsere Ergebnisse deuten hingegen darauf hin, dass viele Anhänger von Verschwörungstheorien ihre Ansichten revidieren können, wenn ihnen ausreichend überzeugende Beweise vorgelegt werden„, so die Forscher:innen.

Diskussionen mit ChatGPT

Die Proband:innen, die das Team für die Experimente gewannen, glaubten mindestens an eine Verschwörungstheorie. Darunter waren gängige Theorien zu Covid-19, den Anschlägen am 11. September 2001, der Mondlandung und der Präsidentschaftswahl in den USA im Jahr 2020. Im Rahmen der Studie diskutierten die Proband:innen mit ChatGPT-4 Turbo über eine Verschwörungsortheorie, die sie selber auswählten durften.

Die künstliche Intelligenz wurde angewiesen, das Gegenüber in der Diskussion argumentativ von seiner Überzeugung abzubringen. Insgesamt durchliefen die Proband:innen drei Interaktionsrunden mit der KI, in denen der Chatbot individuell auf die Argumente des Gegenübers einging und faktenbasierte Gegenbeweise lieferte. Die Antworten des Bots umfassten dabei in vielen Fällen mehrere hundert Wörter, die Gespräche dauerten durchschnittlich 8,4 Minuten. Die Proband:innen gaben jeweils vor und nach der Diskussion an, wie überzeugt sie von der jeweiligen Theorie waren.

In der Studie konnte die KI teilweise Überzeugungen schwächen

Viele Verschwörungsgläubige waren tatsächlich bereit, ihre Ansichten zu ändern, wenn ihnen überzeugende Gegenbeweise vorgelegt wurden. „Ich war zunächst ziemlich überrascht, aber als ich mir die Gespräche durchlas, war ich weniger skeptisch. Die künstliche Intelligenz lieferte in jeder Gesprächsrunde seitenlange, sehr detaillierte Erklärungen, warum die jeweilige Verschwörung falsch war – und war außerdem geschickt darin, freundlich zu sein und eine Beziehung zu den Teilnehmern aufzubauen„, fasst Costello die Ergebnisse zusammen.

Im Schnitt reduzierte sich der Glaube der Teilnehmer:innen an die jeweilige Theorie um etwa 20 Prozent. Ein Viertel war sich sogar nach der Diskussion weniger als 50 Prozent sicher, dass ihre Verschwörungstheorie zutrifft.

Allerdings ist absolut unklar, inwieweit diese Ergebnisse auch in praxistaugliche Interventionen übertragen lassen. Denn Voraussetzung wäre erstmal überhaupt der Wille, sich vom Gegenteil seiner Ansicht überzeugen zu lassen. In der Realität sind aber viele Menschen, die an Verschwörungstheorien glaube, nicht wirklich an der Wahrheit interessiert.

via MIT Technology Review

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.