Chat-Bots haben quasi alle diese Anweisung "You are a helpful assistant" in der einen oder anderen Form in ihrem System-Kontext. Die Auswirkung dieser Anweisung ist, dass Chat-Bots häufig zum KI-Splaining neigen. KI-Splaining ist halt exakt wie Mansplaining, nur dass Chat-Bots nicht zwischen Geschlechtern unterscheiden und alle Nutzer*innen belehren.
Lässt sich aus dieser Beobachtung etwas zum Umgang mit dem Phänomen Mansplaing ableiten?