Forschung 15.10.2024, 09:52 Uhr

ChatGPT und Co können Terroristen entlarven

ChatGPT und andere Formen der generativen Künstlichen Intelligenz (KI), die nur Stichworte brauchen, um nach selbstständiger Recherche im Internet sinnvolle Texte herzustellen, können auch Terroristen anhand ihrer Äusserungen im Internet erkennen.
(Quelle: T. Schneider shutterstock)
Das haben Forscher der Charles Darwin University herausgefunden. Sie erstellten Profile von Verdächtigen und ermittelten die Wahrscheinlichkei, dass sie sich an extremistischen Aktivitäten beteiligen.

Zwei Fragen an ChatGPT

Die Experten haben die KI mit der Textanalyse-Software "Linguistic Inquiry and Word Count" mit 20 öffentlichen Äusserungen internationaler Terroristen gefüttert, die nach dem 11. September 2001 fielen. Damals hatten Terroristen unter anderem das World Trade Center in New York in Schutt und Asche gelegt. Dann stellten sie der Technologie zwei Fragen: Was sind die Hauptthemen oder -motive in den Texten? Und welche Absichten stehen hinter den kommunizierten Botschaften?
Es zeigte sich, dass ChatGPT in der Lage war, den Zweck ihrer Texte zu enthüllen. Anhaltspunkte lieferten Begriffe wie Vergeltung und Selbstverteidigung, Ablehnung demokratischer Systeme, Widerstand gegen Säkularismus und abtrünnige Herrscher, Kampf und Martyrium, Entmenschlichung von Gegnern, Kritik an Masseneinwanderung, Widerstand gegen Multikulti und vieles mehr.

Motivation der Terroristen

ChatGPT hat auch Hinweise auf die Motivation von Gewalt identifiziert, darunter den Wunsch nach Vergeltung und vermeintlicher Gerechtigkeit, antiwestliche Stimmung, Unterdrückung und Aggression durch Feinde, religiöse Missstände sowie die Angst vor ethnischer und kultureller Verdrängung.
"Grosse Sprachmodelle wie ChatGPT können menschliches Urteilsvermögen oder eine Textanalyse zwar nicht ersetzen, aber sie liefern wertvolle Ermittlungshinweise, beschleunigen das Erkennen von Verdachtsmomenten und verbessern unser Verständnis für die Motivationen hinter terroristischen Äusserungen", so Awni Etaywe, Experte für forensische Linguistik mit Schwerpunkt Terrorismus. Forensische Linguistik befasst sich mit der Schnittstelle von Sprache, Gesetz und Verbrechen.
Es seien allerdings weitere Studien nötig, um die Genauigkeit und Zuverlässigkeit von grossen Sprachmodellen, einschliesslich der Analysen von ChatGPT, zu verbessern, so Etaywe. "Wir müssen sicherstellen, dass sie zu einem praktischen Hilfsmittel bei der Identifizierung potenzieller Bedrohungen werden, wobei wir die soziokulturellen Kontexte des Terrorismus berücksichtigen müssen. Diese grossen Sprachmodelle haben bisher einen Ermittlungswert, aber keinen Beweiswert", schliesst Etaywe.(pressetext.com)




Das könnte Sie auch interessieren