„To byłaby zdrada”. Dr Milagros Miceli, światowa ekspertka od AI ujawnia, dlaczego nie korzysta z ChatGPT

W czasach, gdy firmy prześcigają się w implementacji sztucznej inteligencji, głos jednej z czołowych badaczek w tej dziedzinie brzmi jak mocne ostrzeżenie. Jej wypowiedzi zmusiły mnie do głębszego zastanowienia. Chcę je wam przekazać, bo może i was zmuszą do pewnej refleksji.

Dr Milagros Miceli, socjolożka i informatyczka specjalizująca się w AI, jedna ze 100 najbardziej wpływowych osób świata w branży AI w 2025 roku według magazynu TIME, przyznała w niedawnym wywiadzie dla „National Geographic”, że świadomie nie używa ChatGPT. Co bardziej istotne, powody jej bojkotu nie są techniczne, lecz znacznie poważniejsze: etyczne i osobiste.

Nie, nie używam go. To trochę jak moja świadoma konsumpcja” – stwierdziła dr Miceli. Wyjaśniła, że jej decyzja wynika z bliskiej współpracy z ludźmi, którzy byli zatrudnieni przy trenowaniu modeli OpenAI. „To zniszczyło im życie, a OpenAI nigdy im tego nie zrekompensowało. Więc kiedy blisko pracujesz z tymi ludźmi lub są oni twoimi przyjaciółmi, czujesz się, jakby to (używanie ChatGPT – dop. red.) była zdrada” – dodała.

Dr Miceli, która prowadzi badania m.in. w Instytucie Weizenbauma w Berlinie oraz w Distributed AI Research (DAIR) Institute, wskazuje na ukrywany przez gigantów branży koszt ludzki rewolucji AI. Podkreśla, że firmy technologiczne chętnie chwalą się „w pełni autonomiczną AI”, jednocześnie minimalizując jej ludzki wpływ.

Jako przykład podała kasy samoobsługowe Amazona, które wcale nie wyeliminowały kasjerów, a jedynie zastąpiły ich dotychczasowe zadania gorzej płatną, niestabilną i niewidoczną pracą „moderatorów” w biedniejszych krajach, którzy muszą nadzorować system.

Ekspertka ostrzegła również przed społecznymi konsekwencjami nadmiernego polegania na AI. Według niej, ciągłe korzystanie z narzędzi typu ChatGPT sprawia, że ludzie stają się mniej zdolni do samodzielnego myślenia, co w efekcie prowadzi do deprofesjonalizacji i obniżenia kwalifikacji siły roboczej. To z kolei oznacza niższe płace i tworzenie miejsc pracy, które są „mniej interesujące i bardziej niepewne”.

W swoich publikacjach (m.in. „Wyzyskiwana siła robocza stojąca za sztuczną inteligencją”) dr Miceli zwraca uwagę, że technologia zawsze ma dwie strony. „Te drony używane dla zabawy mają też mroczną stronę… drony zdolne do zabijania ludzi tysiące kilometrów stąd. Przerażająca twarz i rozrywkowa twarz to dwie strony tej samej monety. Jedna służy jako odwrócenie uwagi od drugiej” – podsumowała w wywiadzie.

Dotychczas mroczną stronę AI na naszych łamach prezentowaliśmy bądź to przez pryzmat zużycia zasobów; słodkiej wody (chłodzenie centrów danych), energii (zasilanie), a także poprzez liczne przypadki kiedy AI mająca rozwiązać wiele problemów w istocie stworzyła wiele nowych. Dr Miceli zwraca uwagę na jeszcze jeden, bardzo istotny, praktycznie w mediach przemilczany aspekt: czysto ludzki. Za „dobrobytem” AI stoi obniżenie standardów życia wielu ludzi…

#AI #ChatGPT #DAIRInstitute #DrMilagrosMiceli #etykaAI #felieton #krytykaAI #OpenAI #prekariat #sztucznaInteligencja #wyzysk

„To nie inteligencja, to hipnoza”. Szef Salesforce studzi entuzjazm wokół AGI

Marc Benioff, dyrektor generalny giganta technologicznego Salesforce, dołączył do rosnącego grona sceptyków wobec obecnego kierunku rozwoju sztucznej inteligencji.

W niedawnej wypowiedzi w podcaście określił koncepcję ogólnej sztucznej inteligencji (AGI) mianem „hipnozy” i „oksymoronu”, kwestionując przesadny optymizm panujący w branży. Jego słowa stanowią wyraźny sygnał, że nie wszyscy liderzy Doliny Krzemowej podzielają wizję rychłego nadejścia maszyn o ludzkich zdolnościach intelektualnych.

Występując w podcaście „20VC”, Benioff stanowczo stwierdził, że AGI – hipotetyczna forma AI zdolna do wykonywania dowolnego zadania na poziomie człowieka – to wciąż bardzo odległa perspektywa. Podkreślił fundamentalną różnicę między obecnymi modelami a ludzką świadomością.

„To nie jest osoba, to nie jest inteligentne, to nie jest świadome. Nie cierpiało, nie ma współczucia” – mówił, dodając, że nazywanie tej technologii inteligencją jest wprowadzaniem w błąd.

Krytyczne stanowisko szefa Salesforce wpisuje się w szerszy trend w Dolinie Krzemowej. Po początkowej fali euforii, coraz więcej wpływowych postaci dystansuje się od wizji AGI. Były prezes Google, Eric Schmidt, również mówił o nadmiernym „zauroczeniu” tą koncepcją. Słabnący entuzjazm jest po części efektem rozczarowujących wyników najnowszych modeli, takich jak GPT-5, oraz rosnącej presji na firmy technologiczne, by uzasadniły gigantyczne inwestycje w badania nad AI.

Co istotne, sceptycyzm Benioffa wobec AGI nie oznacza odrzucenia obecnych zastosowań sztucznej inteligencji. Wręcz przeciwnie, w Salesforce technologia ta odgrywa już kluczową rolę, odpowiadając za automatyzację od 30 do 50 procent zadań w działach inżynierii i obsługi klienta. Firma wstrzymała nawet rekrutacje na stanowiska techniczne, jednocześnie rozbudowując zespoły sprzedażowe, aby sprostać rosnącemu popytowi na swoje produkty oparte na AI.

Postawa szefa Salesforce pokazuje rosnący pragmatyzm w branży technologicznej. Zamiast skupiać się na odległych i być może nierealnych koncepcjach, liderzy coraz częściej koncentrują się na praktycznym wykorzystaniu dostępnych narzędzi AI do optymalizacji procesów biznesowych i generowania realnych zysków, co może zwiastować bardziej zrównoważony rozwój tej technologii w najbliższych latach.

AI pożera ogromne ilości prądu i generuje CO2. Jak sprawdzić, która jest najbardziej eko? Salesforce ma rozwiązanie

#AGI #AI #DolinaKrzemowa #GPT5 #krytykaAI #MarcBenioff #news #ogólnaSztucznaInteligencja #Salesforce #sztucznaInteligencja #technologia