Na das kann ja zukünftig noch heiter werden.
Na das kann ja zukünftig noch heiter werden.
Es wäre natürlich möglich, ein LLM selbst zu hosten, auf einem Computer, der nicht mit dem Internet verbunden ist und vielleicht mit Strom von den Solarzellen auf dem eigenen Dach (mietwohnung: balkonsolaranlage).
Der Gedanke private Daten in ein mit dem Internet verbundenen Chat-Programm hochzuladen - geschweigedenn die privaten daten einer dritten person - läßt mich eibfach nur erschauern.
Und die, die es trotzdem tun: Die DSGVO sieht dafür eine Geldstrafe von 20 Millionen Euro - oder 4% des Jahresumsatzes wenn diese Summe höher als 20 millionen ist - vor.
@Natanox @Life_is @daswarkeinhuhn @nerdherz
nö...
Wir hatzen letztens nen Studenten, der ein LLM benutzt hat, um Zusammenfassungen von Python-Routinen zu erzeugen, die alle eine bestimmte nicht-öffentliche Bibliothek benutzen (für die musste er das Modell erstmal nach-trainieren). Der hat ein paar ziemlich fähige Modelle verglichen, die alle auf ner Workstation für ein paartausend Euro liefen.
Die meisten davon hätten auch auf nem Laptop laufen können, nur dann halt etwas zu langsam für die geplante Anwendung.
=> Kurze Texte zusammenfassen und so geht inzwischen ganz gut lokal. Längere Texte *verfassen*, auf der anderen Seite... jau, das wird schwieriger. Output von ChatGPT zu erkennen dürfte einfacher sein als ihn zu erzeugen.