Il fenomeno, al di là della simpatica ironia, mostra i limiti intrinseci dei sistemi di automazione chiamati LLMs. Parlare di "threat modeling" significa dare per scontato ciò che scontato non è, cioè che il sistema potrebbe funzionare meglio qualora si trovassero degli opportuni modelli di analisi dei prompt e di prevenzione degli output. Questi fenomeni invece ci sbattono in faccia chiaramente la prospettiva distorta sul linguaggio con la quale sono costruiti i LLMs. La comprensione del linguaggio implica sempre la pre-conprensione di tutta una serie di rimandi che l'esperienza di vita, in un mondo e con gli altri, accende tacitamente prima di arrivare alla parola. È questa pre-comprensione che permette di tradurre una frase da una lingua a un altra rimanendo fedeli a ciò su cui verte il discorso, non i vocabolari e nemmeno i motori inferenziali. Pensare di risolvere questo problema con un migliore "threat modeling" è come pensare di poter svuotare l'oceano con un secchiello.
#ai #LLMs #linguaggio #fenomenologia
https://www.wired.it/article/chatbot-dipartimento-della-salute-usa-alimenti-inserire-nel-retto/