Dziś użycie dużych modeli językowych często wiąże się z dawaniem im dostępu do systemu: możliwości czytania i zapisywania plików, uruchamiania poleceń, często bez jakiegokolwiek nadzoru. Czy ludzie nie martwią się, że zdalny #LLM może zlecać dowolne operacje?
Ostatnio usłyszałem stwierdzenie, które dobrze podsumowuje ten stan umysłu. Było to mniej-więcej "nie mogę dać 100% gwarancji, ale zauważyłem, że LLM-y dobrze radzą sobie z przestrzeganiem poleceń. Do tego LLM-y stają się coraz lepsze, więc już się tym nie martwię".
Czyli tworzymy gigantyczną lukę bezpieczeństwa, ale to jest w porządku, bo prawdopodobieństwo, że LLM *przypadkowo* zrobi coś złego jest coraz mniejsze.