‚Verunsichernde Sicherheit‘ in der Kommunikation im Kontext von KI
Ich bin an der Fertigstellung von zwei Modulen in einem Future Skills Kurs der Uni Bremen, die sich mit Kommunikation und Kollaboration im Kontext von KI beschäftigen werden. Das Thema finde ich deshalb spannend, weil man hier so viele unterschiedliche Ebenen betrachten kann. Zum einen natürlich eine veränderte Mensch-Maschine-Kommunikation, aber dann auch soziale KI-Nutzung in Gruppen und schließlich vor allem die Frage, wie sich zwischenmenschliche Kommunikation verändert, wenn diese in einem Kontext stattfindet, in dem alle Beteiligten potentiell Zugriff auf KI-Sprachmodelle haben. Ich habe über die Notwendigkeit von Transparenz in dieser Situation bereits in einem früheren Blogbeitrag geschrieben.
Im hier folgenden Blogbeitrag möchte ich ein Phänomen näher betrachten, das mir erst in den letzten Wochen in meiner eigenen Praxis bewusster wurde, wozu ich noch keine Antworten habe und wozu es mich sehr interessieren würde, wie andere das einschätzen. Ich nenne dieses Phänomen: verunsichernde Sicherheit!
Was ist mit verunsichernder Sicherheit im Kontext von KI gemeint?
Ich möchte das Phänomen von verunsichernden Sicherheit gerne an einem konkreten Beispiel aus meiner Kommunikation erklären, anhand dessen es mir zum ersten Mal bewusst wurde. Hier ist die Geschichte dazu:
Ich bin neu in eine englischsprachige Signal-Gruppe zur Vernetzung über die Inner Development Goals (IDGs) eingetreten. Ich kannte in dieser Gruppe zuvor kaum jemanden und grundsätzlich fühle ich mich im Englischen eher unsicher. Es ging nun zwar wirklich nur um einen Mini-Text, den man eben schreibt, wenn man neu in solch eine Gruppe kommt. Da ich ansonsten aber wenig Englisch schreibe, fühlte ich mich trotzdem unsicher. Ich versuchte, etwas zu notieren. Das hier war das Ergebnis:
Hi, I’m Nele and I’m glad to be here. I work in the education sector in Germany and I am especially looking forward to connecting with other educators.
Ich denke, dass ich mit diesem Text grundsätzlich verstanden worden wäre. Vielleicht hätte ich auch noch eine nicht-generative KI zu Rate ziehen können, also den Text noch einmal in Deepl hin- und her übersetzen können. Stattdessen habe ich aber aufgrund meiner Unsicherheit ein KI-Sprachmodell geöffnet, meine notierte Vorstellung reinkopiert und den folgenden, sinngemäßen Prompt dazu geschrieben: „Ich brauche eine kurze Vorstellung in einem englischsprachigen Forum. Ist mein Entwurf so korrekt, gut verständlich und wirkt er auf englischsprachige Menschen freundlich und offen oder was sollte ich ändern?“
Wie üblich bekam ich sofort eine ganze Reihe von Vorschlägen in unterschiedlicher Tonalität. Ich wählte aus und postete schließlich:
Happy to be here! I’m Nele from Germany and I’m looking forward to connecting with all of you. I work in education, so I’m especially excited to meet others in this field.
Die Begrüßung wurde wie alle anderen auch geliked und es kamen einzelne Rückmeldungen. Anscheinend hatte ich die Herausforderung also gut bewältigt. Das KI-Sprachmodell hatte mir Sicherheit verschafft, um in diese Kommunikation einzutreten. Wahrscheinlich hatte es mir auch geholfen, mit einer besser passenden Tonalität einzusteigen. Anscheinend war doch also alles gut.
Wo ist die Verunsicherung?
In Gedanken habe ich durchgespielt, was passiert wäre, wenn ich meinen ursprünglichen Text gepostet hätte. Sehr wahrscheinlich hätte auch dieser zu ganz ähnlichen Reaktionen geführt. Der Unterschied wäre dann aber gewesen, dass diese Rückmeldungen mich selbst darin bestärkt hätten, dass ich es ja doch hinbekomme, mich halbwegs in einem englischsprachigen Kontext verständlich zu machen. Und ich wäre die nächste Herausforderung in dieser Art gestärkter und mit mehr Selbstvertrauen angegangen.
Mit der KI-überarbeiteten Fassung war es nun aber gar nicht mehr wirklich mein Text, den ich in die Messenger-Gruppe gepostet habe. Ich fühlte mich somit also zwar erleichtert und war froh, dass der Schritt bewältigt war. Aber im Ergebnis bin ich nicht sicherer darin geworden, etwas englischsprachig irgendwo zu posten, sondern eben sogar eher noch unsicherer. Denn sehr wahrscheinlich würde ich bei der nächsten anstehenden Nachricht dann direkt wieder ein KI-Sprachmodell ‚dazwischen‘ schalten.
Mit verunsichernder Sicherheit in der Kommunikation meine ich genau diese Erfahrung:
Das KI-Sprachmodell hat mir hier zunächst Sicherheit ermöglicht, aber zugleich hat die Nutzung mich auf längere Sicht verunsichert. Denn mehr Sicherheit auf lange Sicht hätte es gerade erfordert, dass ich Unsicherheit aushalte, damit ich die Interaktion als Lerngelegenheit für mich wahrnehme und auf diese Weise in der Interaktion Sicherheit entwickle.
Was sind weitere Beispiele?
Ich habe dieses Muster der ‚verunsichernden Sicherheit‘ anschließend in meiner Kommunikation an vielen Stellen immer wieder entdeckt.
Hier sind ein paar Beispiele:
- Ich schreibe einen Blogbeitrag, poste diesen vor Veröffentlichung erst in ein KI-Sprachmodell und prompte sinngemäß: Welche Kritik ließe sich an diesem Text äußern?
- Ich will in LinkedIn auf einen Kommentar antworten, teile meinen Entwurf dazu erst mit einem KI-Sprachmodell und prompte dazu: Wie ließe sich das vielleicht etwas freundlicher formulieren?
- Ich suche nach einem Titel für einen Workshop, überlege mir unterschiedliche Versionen und prompte: Fällt dir eine noch attraktivere Version für Kontext xy ein? …
Anhand einer Durchsicht meiner Chats der letzten Wochen und Monate konnte ich feststellen, dass ich solche ‚Rückversicherungen‘ bei einem KI-Sprachmodell, bevor ich in eine zwischenmenschliche Kommunikation eintrete, mit wachsender Häufigkeit machte. Das stützt die These der ‚verunsicherenden Sicherheit‘, denn offensichtlich wurde ich zunehmend unsicher. (Bei mir beschränkte sich das auf öffentliche Kommunikation. Ich kann mir aber gut vorstellen, dass solche Mechanismen zunehmend auch in direkter und privater Kommunikation genutzt werden.)
Spannend finde ich daran, dass solch eine ‚Rückversicherung‘ eigentlich genau in die Richtung geht, die in der pädagogischen KI-Debatte als lernförderliche und damit sinnvolle KI-Nutzung eingeordnet wird. Denn schließlich waren meine Prompts nie einfach nur: ‚Hallo KI-Sprachmodell, bitte gib mir mal die Antwort aus!‘ Stattdessen habe ich – genau wie ich das auch selbst in so vielen Workshops und Impulsen vorschlage – erst selbst nachgedacht und KI-Sprachmodelle dann in einer Sparring-Partner-Variante genutzt. (Meine Chats waren häufiger noch länger, als oben kurz skizziert. Ich promptete also oft durchaus weiter, dass mir das so noch nicht gefällt und es eher in eine andere Richtung gehen könnte oder ich fragte noch einmal gezielt unterschiedliche Perspektiven ab).
Aus diesen Beobachtungen ergibt sich für mich eine interessante und auch etwas erschreckende Erkenntnis:
In Hinblick auf Lernen kann eine KI-Sparring-Partner-Strategie vielleicht funktionieren. In Hinblick auf zwischenmenschliche Kommunikation (die ja wesentliche Grundlage von allem Lernen ist) stehen wir aber aus meiner Sicht vor einem paradoxen Problem: Der Eintritt in eine Kommunikation mit einem durch ein KI-Sprachmodell vermittelten Inhalt gibt mir erst einmal Sicherheit. Zugleich bräuchte ich eigentlich Unsicherheit, um dann in der Interaktion erleben zu können, dass und wie mein Inhalt funktioniert, um daraus Sicherheit für zukünftige Kommunikation zu entwickeln.
Fazit
Ich habe dieses Paradox der verunsichernden Sicherheit im Sinne eines lauten Nachdenkens vorgestellt, um gemeinsam daran in der pädagogischen KI-Debatte weiter denken zu können. Für mich persönlich hat es mir bereits geholfen, mir diesen Mechanismus bewusster zu machen. Das führt dazu, dass ich nun eher innehalte und z.B. auch diesen Text ohne solch einen ‚KI-Gegencheck‘ veröffentliche. ;-)
Ich teile meine Überlegungen vor allem, weil ich sehr neugierig bin, ob du ähnliche Erfahrungen in diese Richtung machst oder wie du diese Situation beobachtest und einschätzt.
#KünstlicheIntelligenzKI #Selbstreflexion