Wenn KI-Assistenten Zugriff auf vertrauliche Daten haben, fremde Inhalte verarbeiten und selbst nach außen kommunizieren, entsteht ein „tödlicher Dreiklang“. Angreifer können die KI missbrauchen und Daten erbeuten.

🔒 Zum Schutz: Systeme so gestalten, dass mindestens ein Punkt ausgeschlossen ist.

👉 Mehr dazu im Beitrag oder in der BSI-ANSSI-Publikation: https://www.bsi.bund.de/dok/1158846

#KI #Cybersecurity #BSI #AIsecurity #LethalTrifeca

@bsi gibt's die deutsch-französische publikation nur auf englisch, oder...?

@bsi

Nachdem sich gehäuft gezeigt hat, dass weder Unternehmen noch Private es schaffen, diese Technik zu beherrschen: Wäre es nicht an der Zeit, knallharte Vorgaben zu machen, was den Einsatz angeht?

Warum etwa dürfen deutsche Unternehmen meine Daten fröhlich in LLMs füttern?

@bsi Und daran halten sich natürlich ChatGpt, Grok, OpenAi und Konsorten.

Ganz bestimmt.

Viel wichtiger wäre es Handungsempfehlungen zu erstellen, diese Kraken vom eigenen Content auszusperren.

@bsi Tolle Info und Aufklärung in unseren Kreisen hier, danke! Vielleicht könnte sich das BSI auch an Entscheider wenden?
@bsi Ist schön, dass ihr Aufklärung versucht - wirklich sehr löblich! Ich würde mir nur wünschen, dass ihr insbesondere staatseigene Konzerne, Firmen und Verwaltungen diesbezüglich schult und koordiniert. Die Bahn läuft großteilig auf Microsoft und feiert sich selbst, dass Copilot freigegeben wurde neben der eigenen GPT Variante. Bei solchen Aktionen wirken offizielle Aufklärungsposts wie "Wasser predigen und Wein saufen"
@bsi ich bin mal wirklich gespannt wo in einem halben Jahr so alles vertrauliche Daten zu finden sein werden aus leaks die hundertprozentig stattfinden werden