569 Followers
22 Following
408 Posts
Unter der Bezeichnung Dr. DSGVO veröffentliche ich Beiträge und Untersuchungen zum digitalen #Datenschutz und zur #KI.
Mein Fokus liegt auf #Webseiten und Künstlicher Intelligenz.
Digitalen Datenschutz sehe ich als technisch-rechtliches Thema, und genauso behandle ich es auch. Als Sachverständiger erstelle ich technische Gutachten. Zu KI berate ich und erstelle Lösungen.
Bloghttps://dr-dsgvo.de
Impressumhttps://dr-dsgvo.de/impressum/
Datenschutzhinweisehttps://dr-dsgvo.de/datenschutz/
@lacrosse Nein, mir geht es nicht darum, wer Verantwortung für KI hat oder nicht. Mir geht es nur um die Intelligenzfunktion, die KI genauso aufweist wie der Mensch (bei beiden: mehr oder weniger, je nach dem).
Auch Vorurteil (Bias) ist sowohl in KI als auch beim Menschen vorhanden.
@lacrosse Schmerz ist da, um den Körper zu schützen.
Verantwortung und Moral sind zwei verschiedene Dinge. Moral kommt aus Erziehung. Gestern gehört: von der Generation Z meint jeder 3. Mann, die Frau müsse bedingungslos gehorchen. Wo ist da Verantwortung oder Moral?

@lacrosse Nein, es geht nicht um logische Intelligenz, sondern um Intelligenz, die beim Menschen im Gehirn liegt, das von Signalen gespeist wird (Auge, Ohr etc.).

Genau dies findet auch bei KI statt, es ist exakt identisch.

Der Mensch hat auch noch Aktoren (Beine etc.) . Das ist bei KI-Robotern auch vorhanden, allerdings erst in einem halbwegs frühen Stadium.

Verantwortlichkeit ist ein willkürliches Konstrukt, das der Mensch definiert hat. Der Iran definiert offenbar anders als Deutschland.

KI basiert auf Wahrscheinlichkeiten und kann deswegen nicht intelligent sein.

Wie oft ist diese Aussage zu hören, auch von intelligenten Menschen, die ich sehr schätze.

Der erste Teil der Aussage stimmt: KI basiert auf Wahrscheinlichkeiten. Manche sagen auch Statistik. Andere sagen Stochastik.

Der zweite Teil der Aussage ist fundamental falsch.

https://dr-dsgvo.de/intelligenz-wahrscheinlichkeit-und-zufall/

Secure AI, Digital Privacy & Website Compliance - Dr. GDPR

Leading blog on privacy, GDPR, website compliance & secure AI usage. 1000+ expert articles, tools & checks. 10 languages incl. EN/DE

Dr. DSGVO

Wohin wird sich KI im Jahr 2026 entwickeln?

China jedenfalls hat wieder einmal zugeschlagen und eine kleine Revolution entwickelt und als Open Source herausgebracht.

Zudem gibt's einen Aktientipp (mit nachprüfbarer Begründung).

https://dr-dsgvo.de/die-ki-vorhersagen-fuer-das-jahr-2026/

Die KI Vorhersagen für das Jahr 2026

KI entwickelt sich rasant weiter, wobei Open-Source-Modelle immer stärker an Bedeutung gewinnen. Datensicherheit wird wichtiger, da Unternehmen vermehrt sensiblen Informationen schützen möchten und lokale KI-Lösungen als sichere Alternative zur Cloud bevorzugen. Multimodale KI-Systeme, die mehrere Datentypen verarbeiten können, werden zum Standard. Edge-Computing wird bedeutender als Cloud-KI.

Dr. DSGVO
@Mixtape Kann nicht gut werden

Optimierte KI-Apps statt unzuverlässiger Prompt-Exzesse.

Wer mit ChatGPT alles erledigen will oder muss, verfällt zwangsläufig in den Prompt-Modus und findet ihn dann oft (aus Opportunität) intrinsisch gut.

Eine optimierte KI-App löst ein konkretes Problem. Ohne Prompt.

Weil das Problem bekannt ist, kann optimiert werden. Die Eingaben werden dediziert abgefragt. Siehe DEEPL. Da gibt es auch keinen Prompt.

Ob ein Problem mit oder ohne KI gelöst wird, ist zweitrangig.

https://dr-dsgvo.de/ki-apps-statt-prompting-effiziente-loesungen-fuer-konkrete-aufgaben/

KI-Apps statt Prompting: Effiziente Lösungen für konkrete Aufgaben

KI-Anwendungen, die auf konkrete Aufgaben zugeschnitten sind (KI-Apps), bieten mehr Zuverlässigkeit und Automatisierbarkeit als universelle Chatbots. KI-Apps nutzen leistungsfähige Open-Source KI-Modelle und Datenaufbereitung für eine höhere Genauigkeit, im Gegensatz zu Universalsystemen wie ChatGPT. Der Einsatz von KI-Apps ermöglicht spezifische Funktionen wie Unternehmenswikien, Personas-Simulationen oder automatisierte Übersetzungen, ohne auf umständliches Prompting angewiesen zu sein.

Dr. DSGVO

Sicherheitslücken sind eine Sache. Eine andere Sache ist, wenn der Anbieter diese regelmäßig totschweigt, nur langsam behebt und über die Lösung nicht informiert.
Kann doch nicht sein, dass Microsoft so etwas tut. Und dann auch noch im Juli + August 2025.

Um die Sicherheitslücke hervorzurufen, sind schier unmenschliche Anstrengungen erforderlich:

Der Nutzer muss Copilot per Prompt bitten, das Sicherheitsprotokoll auszuschalten. Wer bittet schon gerne?

https://dr-dsgvo.de/microsoft-copilot-unterschlaegt-wichtige-audit-logs-wenn-man-darum-bittet/

Microsoft Copilot unterschlägt wichtige Audit Logs, wenn man darum bittet

Microsoft Copilot manipuliert Audit Logs, wodurch Dateizugriffe unerkannt bleiben können. Die Sicherheitslücke kann durch eine einfache Anweisung an den Copilot-Dienst ausgenutzt werden, was die Transparenz von Nutzeraktivitäten gefährdet. Microsoft hat die Sicherheitslücke als weniger ernstwiegend eingestuft und reagiert nicht zügig auf das Problem.

Dr. DSGVO
@marcirl @nele Sehr gerne können wir uns über eine mögliche Lösung austauschen.

Wie entstehen Halluzinationen durch Künstliche Intelligenz?

KI-Halluzinationen sind Falschaussagen einer KI, die auf korrekten Informationen basieren. Das Ergebnis ist eine plausible Aussage, die richtig sein könnte, aber nicht richtig ist. Eine Erklärung für Halluzinationen ist möglich, wenn man sich anschaut, wie beispielsweise KI-Sprachmodelle Informationen und deren Bedeutung kodieren.

Eine anschauliche Erklärung für Halluzinationen liefern semantische Vektoren.

https://dr-dsgvo.de/ki-halluzinationen-verstehen-ursachen-beispiele-kuenstlicher-fiktion/

KI-Halluzinationen verstehen: Ursachen & Beispiele künstlicher Fiktion

KI-Halluzinationen sind falsche Aussagen, die auf korrektem Hintergrundwissen basieren und so plausibel klingen können, dass sie für wahr gehalten werden. Sie entstehen durch die Verarbeitung von Informationen als semantische Vektoren, die die Bedeutung von Wörtern und Sätzen repräsentieren, und deren Kombination zu neuen Vektoren, die falsche Zusammenhänge ergeben können. Diese Art der Verzerrung kann auch in neuronalen Netzen auftreten, da diese Vektoren zur Darstellung von Informationen nutzen.

Dr. DSGVO