Privater ChatCPT Account fällt unter amerikanisches Kriegsrecht. Zeit zu gehen.

https://feddit.org/post/26527571

Privater ChatCPT Account fällt unter amerikanisches Kriegsrecht. Zeit zu gehen. - feddit.org

DeepL: >Bei nachrichtendienstlichen Tätigkeiten erfolgt jeglicher Umgang mit privaten Informationen in Übereinstimmung mit dem vierten Verfassungszusatz, dem National Security Act von 1947 und dem Foreign Intelligence and Surveillance Act von 1978, der Executive Order 12333 sowie den geltenden Richtlinien des Verteidigungsministeriums, die einen definierten ausländischen nachrichtendienstlichen Zweck vorschreiben.

Le Chat

Chat with Mistral AI's cutting edge language models.

Mistral AI

Ich habe Mistral gerade mal ausprobiert. Ich teste Nischenwissen, über welches wenig im Netz verfügbar ist, und dafür nehme ich gern die Assembly-Programmiersprache IC10 im Spiel “Stationeers”. Das Ergebnis war einfach nur unterirdisch schlecht, denn der gesamte Output war von Anfang bis Ende komplett halluziniert. Kompletter Unfug. Es wurden Scriptbeispiele genannt, die so aussahen wie Javascript-Pseudocode und absolut nichts mit IC10 zu tun hatten. Auf den Hinweis, dass es sich bei IC10 um eine MIPS-orientierte assembly language handelt kam dann die “Korrektur”, welche mit erfundenen MIPS-ähnlichen Instructions irgendwelchen weiteren kompletten Unsinn dargestellt hat. Darüber hinaus wurden noch Mechaniken erfunden, die es im Spiel überhaupt nicht gibt.

Ich bin sowieso kritisch eingestellt, was die Nutzung von LLMs als “Universalwerkzeug” angeht, und habe meinen ChatGPT-Account bereits gekündigt. Frage mich aber, wie Menschen solche Chatbots ernsthaft produktiv nutzen wollen. Ein System, welches Wissenslücken mit Lügen im selbstbewusstem Tonfall füllt ist einfach absolut nicht hilfreich. Man könnte natürlich argumentieren, dass Chatbots für andere Wissensbereiche (z.B. Python) eine wesentlich bessere Datengrundlage haben und das dann besser funktioniert. Aber kann man einem System auch nur halbwegs vertrauen wenn es sich bei Wissenslücken um Kopf und Kragen halluziniert? Ich hätte da Bedenken. Bei Fragen mit einer besseren Datengrundlage sind die Fehler dann subtiler und schwieriger zu finden, aber das Grundprinzip LLM bleibt ja das selbe.

IC10

Unofficial Stationeers Wiki
Alle haben die wahnhafte Idee, dass die LLMs “immer besser” werden, wenn man nur genug Geld hineinsteckt. Dass der Anteil an Bullenscheiße, den sie produzieren, immer weniger wird - aber es inzwischen schon mal cool ist, sie unser ganzes Leben steuern zu lassen, weil ist ja “gratis” (gratis Bullenscheiße). OpenAI hat selbst ein Paper veröffentlicht, in dem gezeigt wird, dass LLMs einfach nie in der Lage sein können, Bullenscheiße-frei zu arbeiten, weil diese Technologie das einfach nicht kann. Ganz grundsätzlich nicht. Ich suche noch nach einer passenden Analogie. Wir müssen einfach aufhören, den Bots Wissensfragen zu stellen und es verbieten, dass man die dafür vermarktet