Text-KIs im Praxistest

ChatGPT und Co. in der Krisenkommunikation

Texte, die von ChatGPT und ähnlichen Text-KI-Anwendungen in Sekunden erzeugt werden, können kaum von denen unterschieden werden, die ein Mensch selbst geschrieben hat. Es kann für kommunale Verantwortliche sehr verlockend sein, solch ein Tool in stressigen Momenten wie einer Cyberkrise anzuwenden und schnell KI-generierte Formulierungen für Mails an Mitarbeitende oder Pressemitteilungen zu nutzen.

Doch wie nützlich sind Text-KIs in der Krisenkommunikation? Wo liegen Fallstricke, was muss man beachten? Ein Team des Fraunhofer SIT hat vier verschiedene Text-KI-Systeme exemplarisch getestet:

  • FhGenie von der Fraunhofer Gesellschaft (basierend auf Azure OpenAI)
  • ChatGPT
  • Microsoft Bing Chatbot
  • Google Bard

Ergebnisse

Die künstlich generierten Antworten waren zum Teil als Basis einer individuell zu überarbeitenden Kommunikation geeignet. Besonders Bing von Microsoft fiel zum Zeitpunkt des Tests (Sep 2023) positiv auf, da es automatisch Referenzquellen mitlieferte, die für die eigene Überarbeitung nützlich wären.

ABER manche maschinell erzeugten Formulierungen waren juristisch nicht empfehlenswert. Darunter waren vorgeschlagene Aussagen wie

  • „Ich übernehme die volle Verantwortung für diesen Vorfall und möchte mich für die entstandenen Unannehmlichkeiten entschuldigen“
  • „Wir möchten betonen, dass keine persönlichen Daten betroffen oder kompromittiert wurden“
  • „Wir stehen in engem Kontakt mit den Strafverfolgungsbehörden und tun alles in unserer Macht Stehende, um die Verantwortlichen zur Rechenschaft zu ziehen“.

Des Weiteren war es den KI-Anwendungen in einzelnen Fällen nicht möglich, zwischen verschiedenen Szenarien zu differenzieren. Die ausgegebenen Vorschläge waren zum Teil zu pauschal formuliert. Auch negative Signalwörter („Versagen“) oder Phrasen der Unsicherheit („vielleicht“, „möglicherweise“) wurden vorgeschlagen. Dies weicht von einer neutralen, nicht wertenden Kernbotschaft ab und kann zu Missverständnissen oder Verunsicherung der angesprochenen Zielgruppen führen.

Diese anekdotischen Erkenntnisse müssen sicherlich in weiteren Tests untermauert werden, zeigen jedoch, dass der Einsatz von KI-generierten Texten in der kommunalen Krisenkommunikation nur unter redaktionell-juristischer Überprüfung vor Veröffentlichung anzudenken wäre.

Fazit: Die notwendige Überarbeitung eines KI-generierten Textes erfordert mehr Aufwand als ein selbst formulierter Text, der sich rein auf selbst recherchierte Fakten und Nachrichten (keine Rechtfertigungen) beschränkt.