Sztuczna inteligencja nigdy nie zyska świadomości. Badacz Google DeepMind obnaża iluzję Doliny Krzemowej
Szefowie technologicznych gigantów prześcigają się w wizjach nadchodzącej, wszechpotężnej sztucznej inteligencji (AGI), która ma zmienić świat szybciej niż rewolucja przemysłowa.
Tymczasem z wnętrza laboratoriów Google płynie zupełnie inny komunikat: modele językowe nigdy nie staną się świadome. To twarde lądowanie dla branżowego huraoptymizmu, choć – jak punktują eksperci – Dolina Krzemowa po raz kolejny z hukiem wyważa drzwi, które nauka otworzyła dekady temu.
Alexander Lerchner, starszy naukowiec w laboratorium Google DeepMind, opublikował niedawno pracę zatytułowaną The Abstraction Fallacy: Why AI Can Simulate But Not Instantiate Consciousness (w tłumaczeniu: „Błąd abstrakcji: dlaczego sztuczna inteligencja może symulować, ale nie może ucieleśniać świadomości”). Jego wnioski stoją w ostrej sprzeczności z narracją promowaną chociażby przez szefa DeepMind, Demisa Hassabisa, który regularnie podsyca oczekiwania wobec nadchodzącego AGI.
Błąd abstrakcji i brak biologii
Artykuł Lerchnera jest naszpikowany naukowym żargonem, ale jego główna teza sprowadza się do faktu, że systemy sztucznej inteligencji są „zależne od twórcy mapy”. Wymagają one ludzkiego czynnika, który nada fizycznemu światu skończony zestaw znaczeń i uporządkuje dane tak, by algorytm mógł na nich pracować. Tytułowy „błąd abstrakcji” to złudzenie polegające na wierze, że skoro zorganizowaliśmy dane w sposób pozwalający algorytmom manipulować językiem i symbolami, to mogą one realnie zyskać samoświadomość.
Lerchner argumentuje, że jest to niemożliwe bez posiadania fizycznego ciała i biologicznych potrzeb. Jak wyjaśnia w rozmowie z 404 Media biolog i filozof Johannes Jäger: „Znaczenie, jakim kieruje się żywy organizm, wynika z faktu, że musi jeść, oddychać i nieustannie inwestować fizyczną pracę, by utrzymać się przy życiu. Żaden system nieożywiony tego nie robi. LLM to tylko zbiór wzorców na dysku twardym. Zostaje uruchomiony, wykonuje zadanie i kończy pracę”.
Ignorancja technologicznej bańki
Zarówno Jäger, jak i inni naukowcy zajmujący się kognitywistyką, zgadzają się w 99 procentach z wnioskami płynącymi z pracy badacza Google. Problem polega na tym, że branża technologiczna ignoruje dorobek innych dziedzin nauki. Te same argumenty filozofowie i biolodzy przedstawiają od lat.
Eksperci wytykają środowisku AI niezwykłą hermetyczność. Inżynierowie z Doliny Krzemowej często operują pojęciami takimi jak „inteligencja” czy „sprawczość”, nie znając zupełnie ich biologicznego ani koncepcyjnego rodowodu. Emily Bender, profesor lingwistyki z University of Washington, nazywa publikacje płynące z korporacyjnych laboratoriów „tworami przypominającymi prace naukowe” – często omijają one bowiem rygorystyczny proces wzajemnej weryfikacji (peer-review), podczas którego autorom szybko wytknięto by brak odniesień do wcześniejszych, ugruntowanych już badań.
Korporacyjna gra pozorów
Zastanawiające jest również to, dlaczego Google w ogóle pozwoliło na publikację materiału, który podcina skrzydła ich własnej, marketingowej opowieści o AGI. Mark Bishop z University of London zauważa w tym pragmatyczny, korporacyjny cel. Uznanie, że systemy obliczeniowe nigdy nie zyskają świadomości, jest gigantom technologicznym niezwykle na rękę. Pozwala to uniknąć absurdalnych, ale realnych legislacyjnych batalii o „prawa sztucznej inteligencji”, o których dyskutowano już m.in. w Parlamencie Europejskim.
Warto jednak odnotować pewien detal. Po tym, jak dziennikarze 404 Media poprosili Google o komentarz do publikacji Lerchnera, oficjalne logo DeepMind w tajemniczych okolicznościach zniknęło z pliku PDF udostępnianego w sieci, a na początku tekstu pojawiła się wyraźna adnotacja, że praca odzwierciedla wyłącznie osobiste poglądy autora i nie jest stanowiskiem firmy.
Czy asystent AI może pogłębić kryzys psychiczny? Grok i Gemini oblewają test bezpieczeństwa, Claude stawia granice
#AGI #AI #bezpieczeństwoAI #DemisHassabis #filozofia #GoogleDeepMind #LLM #modeleJęzykowe #sztucznaInteligencja #technologie