Chorując, nadrabiam nieprzesłuchane w grudniu odcinki podcastów, no i dotarłam do "Bunkra Nauki" z udziałem prof. Andrzeja Dragana, który na co dzień zajmuje się łączeniem teorii względności z teorią kwantową, ale w ostatnim czasie nader często wypowiada się na temat sztucznej inteligencji z racji wydania książki pt. "Quo vAIdis". Książkę przesłuchałam pod postacią audiobooka jakieś dwa miesiące temu - odpowiedzi na pytanie, dokąd zmierza AI, w niej nie znalazłam (mimo tytułu, który ją zapowiada). Zdziwił mnie też brak jakichkolwiek odniesień do kwestii etycznych związanych z trenowaniem modeli językowych. Po przesłuchaniu rozmowy w "Bunkrze Nauki" już nie dziwi. Okazuje się bowiem, że Dragan "nie kupuje argumentu", że trenowanie LLM-ów może się wiązać z nieposzanowaniem praw autorskich czy - mówiąc wprost - kradzieżą własności intelektualnej. Proces uczenia się przez AI profesor porównuje do czytania/studiowania różnych dzieł przez człowieka, który po jakimś czasie mógłby wydać coś własnego.

"No, jak jakąś książkę czy dwie napisałem, to to się wzięło stąd, że ja wcześniej czytałem jakieś teksty. Ale czy to znaczy, że jestem winny pieniądze każdemu autorowi książki, którą kiedykolwiek wcześniej przeczytałem? No, gdybym splagiatował którąś z tych ksiażek, to pewnie tak, ale idea jest taka, że ja uczę się czegoś o świecie na różne sposoby, a potem tę wiedzę pożytkuję w taki czy inny sposób, starając się coś trochę bardziej oryginalnego wytworzyć niż tylko kopiowanie tego, co przeczytałem. I trochę podobnie jest też z treningiem sztucznej inteligencji, która przecież nie jest od tego, żeby kopiować słowo w słowo czy papugować cokolwiek, na czym była trenowana, tylko raczej ona w wyniku treningu uczy się pewnych ogólnych zależności, które są w danych i potem wykorzystuje je do tworzenia nowych treści" - argumentuje Dragan, później jeszcze dodając, że nie sądzi, by wprowadzanie w tym zakresie ograniczeń, było dobrym rozwiązaniem. Bardzo rozczarowujące podejście.

https://www.youtube.com/watch?v=R6fsHwMGI24&t=4093s

#sztucznainteligencja #llm #ksiazki

Czy AI zastąpi FIZYKÓW? Andrzej Dragan i Paweł Janowski | 88

YouTube
@avolha książek też się Dragan na pamięć uczy ;)? https://x.com/ednewtonrex/status/2009201019184415218?s=20
Ed Newton-Rex (@ednewtonrex) on X

A new paper from Stanford adds further, incontrovertible evidence that LLMs memorize training data. The authors showed that copyrighted works can be extracted from every LLM they tried: GPT-4.1, Gemini 2.5 Pro, Grok 3, and Claude 3.7 Sonnet. For example, Claude 3.7 Sonnet

X (formerly Twitter)
@Perun kto go tam wie ¯\_(ツ)_/¯
A tak serio to myślę, że Dragan uprawia cherry-picking i jak mu coś do tezy pasuje, to to bierze, a jak nie, to pomija.