Also halten wir fest: LLMs aktueller Bauart werden immer wieder halluzinieren und - wer hätte das gedacht außer alle mit normalem Verständnis von Vertrauen in irgendwelche Daten - lassen sich sehr einfach vergiften ☠️
Also halten wir fest: LLMs aktueller Bauart werden immer wieder halluzinieren und - wer hätte das gedacht außer alle mit normalem Verständnis von Vertrauen in irgendwelche Daten - lassen sich sehr einfach vergiften ☠️
'Data Poisoning' kannte ich noch nicht. Gibts schon digitale Freiheitskämpfer die das gegen LLM einsetzen? Bzw. braucht es die ja gar nicht, geschieht ja auch so systemimmanent schon.
Gibts eine Bezeichnung (Wort) für ein sich selbst zerstörendes System? (So wie bei Kapitalismus z.B.)
KI = Kranke Informationstechnologie 🙃
AI = Anfällige Informationstechnologie 🤔