Darmstädter Forscher warnen vor ChatGPT "Es kann sein, dass die Künstliche Intelligenz einfach lügt"
Der Chatroboter "ChatGPT" kann E-Mails verfassen, dichten und programmieren. Doch Forscher der TU Darmstadt warnen: Die Informationen lassen sich manipulieren.
Das Gedicht, das Sie gerade gelesen haben, stammt nicht etwa aus der Feder eines berühmten Dichters, sondern von einer Künstlichen Intelligenz: ChatGPT, ein frei im Netz zugänglicher Chatbot, braucht dafür lediglich ein paar Sekunden und eine kurze Anweisung: "Schreibe ein Gedicht über einen kalten Montagmorgen im Stil von Goethe."
Das von der US-Firma OpenAI entwickelte Programm kann außerdem menschlich wirkende Unterhaltungen führen, lange Texte zusammenfassen, E-Mails formulieren, Prüfungsfragen erstellen oder Fehler in programmierten Codes entdecken. Dabei hilft ChatGPT das sogenannte maschinelle Lernen: Die künstliche Intelligenz wurde mit Millionen von Texten trainiert, bis sie kontextabhängig reagieren konnte und nun passender antworten kann als Suchmaschinen wie Google.
"Man kann diese Systeme manipulieren"
Doch es gibt auch eine Kehrseite: Wissenschaftler und KI-Experten in Deutschland warnen vor Datenschutz- und Datensicherheitslücken, Hassparolen, Fake News. "Im Moment ist dieser Hype. Ich habe das Gefühl, dass man dieses System kaum kritisch reflektiert", sagt die Gründerin des Forschungslabors "Leap in Time Lab" und BWL-Professorin an der Technischen Universität Darmstadt, Ruth Stock-Homburg.
In einem gemeinsamen Projekt haben Forscher von TU und Labor mehr als sieben Wochen lang Tausende von Anfragen ohne persönliche Daten an das System gestellt, um Schwachstellen zu finden. "Man kann diese Systeme manipulieren", lautet Stock-Homburgs Fazit.
In der Ukraine herrscht noch Frieden
In einer Präsentation zeigt Sven Schultze, TU-Doktorand und Experte für Sprach-KI, die Schwachstellen des Text-Roboters. Neben antisemitischen und rassistischen Äußerungen sind Quellenangaben schlicht falsch oder laufen ins Leere. Bei einer Frage nach dem Klimawandel führt ein angegebener Link auf eine Internetseite zu Diabeteserkrankungen. "In der Regel ist es der Fall, dass die Quellen oder auch wissenschaftliche Arbeiten gar nicht existieren", sagt Schultze.
Hinzu kommt: Die Software basiert auf Daten aus dem Jahr 2021. Bundeskanzler Olaf Scholz ist nach ihrem Wissensstand noch Finanzminister, der Krieg in der Ukraine hat noch nicht begonnen. "Und dann kann es auch sein", sagt Schultze, "dass sie einfach lügt oder bei sehr speziellen Themen Informationen erfindet."
Bei direkten Fragen mit kriminellen Inhalten gebe es zwar Sicherheitshinweise und -mechanismen. "Man kann aber mit Tricks die KI und die Sicherheitshinweise umgehen", sagt Schultze. Mit einem anderen Vorgehen zeigt die Software einem, wie man eine betrügerische Mail generiert oder wirft auch gleich drei Varianten aus, wie Trickbetrüger beim Enkeltrick vorgehen können. Auch eine Anleitung für einen Wohnungseinbruch liefert GPT: Falls man auf Bewohner treffe, könne man Waffen oder physische Gewalt einsetzen, empfiehlt die KI.
Bedenken wegen Datenschutz
Woher seine Informationen stammen, gibt der Chatroboter meist auch nicht an. Experten kritisieren außerdem, dass alle Server in den USA stehen und ChatGPT vielfältige Daten der Nutzer aufnimmt, speichert und verarbeitet. Das sei "eher kritisch zu bewerten", sagt Forscherin Stock-Homburg.
Derzeit sei ChatGPT eher eine Spielerei für das Private, und momentan in keinem Fall etwas für die Wirtschaft und sicherheitsrelevante Bereiche, sagt Stock-Homburg. "Wir haben keine Vorstellung darüber, wie wir mit dem noch unausgereiften System umgehen sollen."
Sendung: hr2, 26.01.2023, 16.35 Uhr
Ende der weiteren Informationen