Diesen #Simulacrum Effekt von #ChatGPT habe ich so auf den Punkt noch in keinem anderen Video gesehen: einmal ist die Ausgabe der oft gepostet, ausgedachte Quatsch. Mit dem Vorsatz „du bist Experte für…“ kommt hingegen eine exzellente Antwort. Wichtig zu beachten für eigene Experimente.

Das ganze Video von @AlexK0815 ist sehr sehenswert, und dann auch noch von der Firma meiner Frau @wortkomplex :

https://youtu.be/HfgEu_EohH0

#SimulacrumEffekt #Sernet #verinice

verinice.XP 2023: verinice.veo und ChatGPT

YouTube
@rstockm @AlexK0815 @wortkomplex Wenn ich das richtig verstehe ist das hier der Artikel 64 DSGVO: https://dsgvo-gesetz.de/art-64-dsgvo/
Art. 64 DSGVO – Stellungnahme des Ausschusses - Datenschutz-Grundverordnung (DSGVO)

1Der Ausschuss gibt eine Stellungnahme ab, wenn die zuständige Aufsichtsbehörde beabsichtigt, eine der nachstehenden Maßnahmen zu erlassen. 2Zu diesem Zweck übermittelt die zuständige Aufsichtsbehörde dem Ausschuss den Entwurf des Beschlusses, wenn dieser der Annahme einer Liste der Verarbeitungsvorgänge dient, die der Anforderung einer Datenschutz-Folgenabschätzung gemäß Artikel 35 Absatz 4 unterliegen, eine Angelegenheit gemäß Artikel 40 … Art. 64 DSGVO – Stellungnahme des Ausschusses weiterlesen

Datenschutz-Grundverordnung (DSGVO)
@343max @rstockm @wortkomplex Ja, korrekt. Er hat halt erkannt, dass es nicht den von mir behaupteten Art. 64 "Sicherheit der Verarbeitung" gibt - wenn man ihm den entsprechenden Kontext gibt. Mehr solcher Tipps gibt es übrigens im Cookbook: https://github.com/openai/openai-cookbook
GitHub - openai/openai-cookbook: Examples and guides for using the OpenAI API

Examples and guides for using the OpenAI API. Contribute to openai/openai-cookbook development by creating an account on GitHub.

GitHub
@AlexK0815 @rstockm @wortkomplex Ich weiß nicht, ob das Modell etwas erkannt hat. Aber da steht etwas, was objektiv falsch ist und es ist niemandem aufgefallen. Das halte ich für eine der großen Gefahren von diesen Modellen, dass sie keinerlei Verständnis von “richtig” und “falsch” haben sondern nur wohlklingende Sätze formulieren. Darauf gehst du überhaupt nicht ein, sondern erweckst den Eindruck dieses Modell würde “verstehen” und versuchen “richtige” Antworten zu geben.
@AlexK0815 @rstockm @wortkomplex Anders Beispiel: Du hast das Modell ab einer anderen Stelle einen Brief formulieren lassen, über gestohlene Laptops. Da hat es den Satz eingebaut, dass keine Daten weggekommen seien oder sowas. Etwas, was das Modell wiederum nicht „wissen“ kann. Das Modell produziert diverse Male falsche Ergebnisse und du gehst darauf nicht ein und bemerkst es scheinbar nicht mal.

@343max @rstockm @wortkomplex

Ist korrekt - das war die Stelle an der ich meinte, dass man das Ergebnis jetzt noch umformulieren könnte - exakt weil mir die vergeigte Formulierung aufgefallen war.

Die Modelle "verstehen" durchaus - wie sehr versucht ja z.B. der GLUE benchmark (general language understanding evaluation) zu messen. Es stimmt aber, dass ich stärker auf die Gefahr hätte hinweisen können, dass das Model falschen Output erzeugt ohne dass es dem Nutzer auffällt.

Durch retrieval augmentation, selection/inference separation und andere Techniken wird sich das verbessern. Recht interessantes Paper dazu ist z.B. "Faithful Reasoning Using LLMs" von Antonia Creswell. Das Modell agiert da schrittweise und fragt sich nach jedem Schritt "Kann ich die Antwort wissen?" Ich denke, dass wir bald auch zu nachvollziehbaren Argumentationspfaden und vertrauenswürdigeren Ergebnissen kommen.

@AlexK0815 @rstockm @wortkomplex Ich hab noch nie jemanden sagen gehört, dass diese Modelle etwas „verstehen“ würden. Nach allem was ich bisher gelesen habe machen diese Systeme nicht viel mehr als an Wortketten das nächste Wort zu hängen, dass an dieser Stelle statistisch wahrscheinlich wäre. Ich habe eine Weile mit diesem System rumgespielt und nach meiner Erfahrung ist es in den meisten Fällen nicht viel mehr als Glück ob eine Aussage stimmt. Woher hast du das vom „verstehen“?