#Steady-#Klimacrew

Wie riskant ist es, #Gerichtsdokumente mithilfe von KI zu erstellen?

Wenn #Chatbots statt Fakten fiktive Urteile oder Fakequellen liefern, wird es teuer – und peinlich. Ein Fall aus #Kalifornien zeigt, welche Folgen mangelnde Prüfung generierter Inhalte haben kann.

https://tino-eberl.de/missbrauch-kuenstlicher-intelligenz/anwalt-in-kalifornien-nutzt-chatgpt-und-wird-zu-10-000-dollar-strafe-verurteilt/

#ChatGPT #Halluzinationen #FalscheQuellen #LegalTech #GenerativeKI #Anwaltsfehler #KIMissbrauch

Anwalt in Kalifornien nutzt ChatGPT – und wird zu 10.000 Dollar Strafe verurteilt

Ein Anwalt nutzte ChatGPT für einen Gerichtsantrag – mit fatalen Folgen: 21 von 23 Zitaten waren erfunden. Das Gericht verhängte eine Strafe.

Tino Eberl

Der automatisch erzeugte Alt-Text zu diesem Bild:
Bh is
noi [aig ! 1 il!
NE ETE Al fii
ro SPREE i
......usw.usf.
® "i wii lm Fy . il 4 £0 aw ly i :
™ ls 1 (NY 1 + ig ls i i (Thin. i :
[-y ¥| LL E ; fis oH dine. ay |
| Wy a np" p= i hE i be NG I.
La ily fin | | fin il m Hi LL | a i I KL fs
y po | ’ rl | | We, im fs. AIR i Miss EN hit
= | | | = gn J on 1 ARRAEEN & (4 :
|= a Wining sa 0 ’
lL -) il ll | Bs . Tadg Rh. SCHWESTERN HH-0TTEN A
Tin Hi | i EE —
L] J Si
EINTRITT 16 UHR - ONT
——s Ta ct
ERWUNSCHT a

Soll ich lachen oder weinen???
#!B #AlternativText #Halluzinationen

#Steady-#Klimacrew

Wieso geben #Sprachmodelle oft selbstbewusst falsche Antworten?

Beim Grund fasst man sich an die Stirn. Werden wir eines Tages Modelle haben, die zur Abwechslung mal „Ich weiß es nicht“ sagen? Eine Studie zeigt, woran man arbeiten müsste, damit #Sprachmodelle besser antworten.

https://tino-eberl.de/ki-news/lassen-sich-halluzinationen-bei-sprachmodellen-vermeiden/

#KI #Sprachmodelle #Halluzinationen #LLM #KITransparenz #KünstlicheIntelligenz #KINews

Lassen sich Halluzinationen bei Sprachmodellen vermeiden?

Warum halluzinieren große Sprachmodelle? Eine neue Studie von OpenAI liefert überraschende Erklärungen und Lösungsvorschläge.

Tino Eberl
Guter Punkt! #Halluzinationen sind kein #KI-Spezifikum, sondern ein Grundproblem jedes #neuronalenNetzwerks, biologisch wie künstlich. Sie werden nicht durch Verzicht auf #KI gelöst, sondern durch Spiegelung …

Erfundene Bücher, ausgedachte Geburtsdaten etc.: Für Äußerungen von ChatGPT & Co., die keinen Bezug zur Wahrheit haben, hat sich der Begriff "Halluzinationen" etabliert. Das kritisieren nicht nur Psycholog:innen - die stattdessen den Begriff "Konfabulation" vorschlagen -, es macht auch aus linguistischer Perspektive keinen Sinn, schreibt @lingulist 👇

https://wub.hypotheses.org/3313

#ChatGPT #LLM #Chatbot #Halluzinationen

Vom Fabulieren und Halluzinieren

In der letzten Zeit wird sehr oft vom Halluzinieren gesprochen. Allerdings nicht in Bezug auf Menschen, die ja auch selten von Halluzinationen heimgesucht werden, als vielmehr in Bezug auf Sprachmodelle, die komische Antworten liefern, die keinen Sinn ergeben oder sich angebliche Fakten zusammenfabulieren, für die es keine Belege gibt. Dass es problematisch ist, dieses nicht […]

Von Wörtern und Bäumen
@doener Schön ist auch der Schlusssatz dieses Artikels:
"But the best move may be to completely avoid relying on #AI chatbots to provide factual information"
"Am besten verlässt man sich bei der Suche nach Fakten gar nicht auf #KI #Chatbots."
https://www.newscientist.com/article/2479545-ai-hallucinations-are-getting-worse-and-theyre-here-to-stay/
#chatgpt #Halluzinationen
AI hallucinations are getting worse – and they're here to stay

An AI leaderboard suggests the newest reasoning models used in chatbots are producing less accurate results because of higher hallucination rates. Experts say the problem is bigger than that

New Scientist
@JamesBont Ich hoffe doch wirklich sehr, dass deutsche Behörden NIE auf #Grok zugreifen werden. Dann lieber ab und zu einen #Grog im Dienst. Der wirkt weniger problematisch, auch wenn er (oder der 2. oder 3.) evtl. auch zu #Halluzinationen führen mag.

Es gibt sie noch, die guten Nachrichten: #KI-Betreiber haften für #Halluzinationen (eigentlich: #Konfabulationen) ihrer #Sprachmodelle.

Konkret: wenn #Musk seine KI #Grok #Lügen verbreiten lässt, dann kann er sich nicht auf technische Unzulänglichkeiten herausreden.

#Rechtsstaat #Justiz #Urteil #Grundrechte #TeamResopal #JuraBubble

https://rsw.beck.de/aktuell/daily/meldung/detail/lg-hamburg-324o46125x-x-ki-bot-aussage-haftung-halluzination-unterlassung

KI-Bot Grok: X haftet für halluzinierte Aussage

Erfindet eine KI Fakten, kann der Betreiber dafür herangezogen werden. Ein Beschluss des LG Hamburg zeigt: Nur ein Disclaimer reicht womöglich nicht aus.

Aktuell