Emocjonalne AI – przyjaciel czy oszust? Zrozumienie technologii relacji

Kiedy ostatni raz zwierzyłeś się tosterowi? A jednak całkiem sporo osób zaczyna rozmawiać z chatbotami jak z przyjaciółmi.

Czytaj dalej:
https://pressmind.org/emocjonalne-ai-przyjaciel-czy-oszust-zrozumienie-technologii-relacji/

#PressMindLabs #antropomorfizacja #botterapeuta #chatboty #emocjonalneai #etykaai

„To byłaby zdrada”. Dr Milagros Miceli, światowa ekspertka od AI ujawnia, dlaczego nie korzysta z ChatGPT

W czasach, gdy firmy prześcigają się w implementacji sztucznej inteligencji, głos jednej z czołowych badaczek w tej dziedzinie brzmi jak mocne ostrzeżenie. Jej wypowiedzi zmusiły mnie do głębszego zastanowienia. Chcę je wam przekazać, bo może i was zmuszą do pewnej refleksji.

Dr Milagros Miceli, socjolożka i informatyczka specjalizująca się w AI, jedna ze 100 najbardziej wpływowych osób świata w branży AI w 2025 roku według magazynu TIME, przyznała w niedawnym wywiadzie dla „National Geographic”, że świadomie nie używa ChatGPT. Co bardziej istotne, powody jej bojkotu nie są techniczne, lecz znacznie poważniejsze: etyczne i osobiste.

Nie, nie używam go. To trochę jak moja świadoma konsumpcja” – stwierdziła dr Miceli. Wyjaśniła, że jej decyzja wynika z bliskiej współpracy z ludźmi, którzy byli zatrudnieni przy trenowaniu modeli OpenAI. „To zniszczyło im życie, a OpenAI nigdy im tego nie zrekompensowało. Więc kiedy blisko pracujesz z tymi ludźmi lub są oni twoimi przyjaciółmi, czujesz się, jakby to (używanie ChatGPT – dop. red.) była zdrada” – dodała.

Dr Miceli, która prowadzi badania m.in. w Instytucie Weizenbauma w Berlinie oraz w Distributed AI Research (DAIR) Institute, wskazuje na ukrywany przez gigantów branży koszt ludzki rewolucji AI. Podkreśla, że firmy technologiczne chętnie chwalą się „w pełni autonomiczną AI”, jednocześnie minimalizując jej ludzki wpływ.

Jako przykład podała kasy samoobsługowe Amazona, które wcale nie wyeliminowały kasjerów, a jedynie zastąpiły ich dotychczasowe zadania gorzej płatną, niestabilną i niewidoczną pracą „moderatorów” w biedniejszych krajach, którzy muszą nadzorować system.

Ekspertka ostrzegła również przed społecznymi konsekwencjami nadmiernego polegania na AI. Według niej, ciągłe korzystanie z narzędzi typu ChatGPT sprawia, że ludzie stają się mniej zdolni do samodzielnego myślenia, co w efekcie prowadzi do deprofesjonalizacji i obniżenia kwalifikacji siły roboczej. To z kolei oznacza niższe płace i tworzenie miejsc pracy, które są „mniej interesujące i bardziej niepewne”.

W swoich publikacjach (m.in. „Wyzyskiwana siła robocza stojąca za sztuczną inteligencją”) dr Miceli zwraca uwagę, że technologia zawsze ma dwie strony. „Te drony używane dla zabawy mają też mroczną stronę… drony zdolne do zabijania ludzi tysiące kilometrów stąd. Przerażająca twarz i rozrywkowa twarz to dwie strony tej samej monety. Jedna służy jako odwrócenie uwagi od drugiej” – podsumowała w wywiadzie.

Dotychczas mroczną stronę AI na naszych łamach prezentowaliśmy bądź to przez pryzmat zużycia zasobów; słodkiej wody (chłodzenie centrów danych), energii (zasilanie), a także poprzez liczne przypadki kiedy AI mająca rozwiązać wiele problemów w istocie stworzyła wiele nowych. Dr Miceli zwraca uwagę na jeszcze jeden, bardzo istotny, praktycznie w mediach przemilczany aspekt: czysto ludzki. Za „dobrobytem” AI stoi obniżenie standardów życia wielu ludzi…

#AI #ChatGPT #DAIRInstitute #DrMilagrosMiceli #etykaAI #felieton #krytykaAI #OpenAI #prekariat #sztucznaInteligencja #wyzysk

Ted Cruz chce dać firmom AI wolną rękę. Krytycy ostrzegają przed „eksperymentami na społeczeństwie”

Amerykański senator Ted Cruz przedstawił projekt ustawy, która ma zrewolucjonizować podejście do regulacji sztucznej inteligencji w USA.

Propozycja, nazwana SANDBOX Act, zakłada stworzenie swoistej „piaskownicy regulacyjnej”, w której firmy technologiczne mogłyby tymczasowo unikać egzekwowania niektórych praw federalnych. Cel? Przyspieszenie innowacji.

Jednak krytycy biją na alarm, ostrzegając, że to furtka do niebezpiecznych eksperymentów i korupcyjnych układów z Big Tech.

Vibe coding, czyli programowanie na czuja. AI miało zastąpić programistów, a stworzyło dla nich nowy rynek pracy

Zgodnie z projektem, firmy rozwijające AI mogłyby ubiegać się o moratorium na egzekwowanie przepisów, które hamują testowanie nowych produktów. W zamian musiałyby przedstawić analizę potencjalnych ryzyk i korzyści. Co jednak budzi największe kontrowersje, to przyznanie Białemu Domowi prawa do uchylania decyzji niezależnych agencji federalnych, odpowiedzialnych za ochronę konsumentów. Taka „piaskownica” mogłaby obowiązywać nawet przez dziesięć lat dla jednego projektu.

Pomysł spotkał się z potężną falą krytyki ze strony organizacji nadzorujących branżę technologiczną. Grupa Tech Oversight Project ostrzega, że ustawa dałaby „bezprecedensowe uprawnienia” administracji, potencjalnie tej Donalda Trumpa, do zawierania umów z gigantami technologicznymi. Wskazuje się na ryzyko, że firmy takie jak Google, Apple, Meta czy OpenAI mogłyby, poprzez wsparcie polityczne, zapewnić sobie ulgowe traktowanie, podczas gdy społeczeństwo stałoby się poligonem doświadczalnym dla niedopracowanych technologii. „To nie do przyjęcia, by ryzykować bezpieczeństwo publiczne dla wzbogacenia firm, które już teraz są warte biliony” – grzmi organizacja Public Citizen.

Google wprowadza AI, która sama stworzy reklamy. Nowe narzędzia w Google Ads radykalnie przyspieszą pracę marketerów

Z drugiej strony, zwolennicy ustawy, w tym Amerykańska Izba Handlu oraz stowarzyszenie NetChoice reprezentujące Big Tech, widzą w niej szansę na przełamanie regulacyjnego impasu. Twierdzą, że wiele obecnych przepisów jest przestarzałych i nieprzystających do realiów ery AI. Ich zdaniem, elastyczne podejście pozwoli na szybszy rozwój przełomowych rozwiązań w medycynie, transporcie czy finansach, co ostatecznie przyniesie korzyści całemu społeczeństwu.

Debata wokół propozycji Cruza to podręcznikowy przykład konfliktu między pędem do innowacji a potrzebą zapewnienia bezpieczeństwa i ochrony obywateli. W tle pozostaje fakt, że dotychczas to poszczególne stany, a nie rząd federalny, wiodły prym w próbach uregulowania sztucznej inteligencji, wprowadzając przepisy dotyczące m.in. deepfake’ów czy wykorzystania AI w chatbotach terapeutycznych. Przyszłość ustawy pokaże, czyje argumenty – zwolenników swobody innowacji czy obrońców publicznego bezpieczeństwa – przeważyły w Kongresie.

Sztuczna inteligencja jako broń i tarcza. Google Cloud prognozuje największe cyberzagrożenia na 2025 rok

#AI #Apple #Bezpieczeństwo #BigTech #DonaldTrump #etykaAI #Google #innowacje #Meta #news #OpenAI #prawo #regulacje #SANDBOXAct #sztucznaInteligencja #technologia #TedCruz #usa

Szef Microsoft AI ostrzega. Nadchodzi AI, w której świadomość uwierzą miliony

Mustafa Suleyman, dyrektor generalny Microsoft AI i współzałożyciel DeepMind, opublikował na swoim blogu esej, w którym ostrzega przed nowym i – jego zdaniem – nieuniknionym zagrożeniem.

Suleyman ostrzega, że w ciągu najbliższych 2-3 lat powstaną systemy sztucznej inteligencji tak dobrze udające świadomość, że miliony ludzi zaczną traktować je jak prawdziwe, czujące istoty. To zrodzi potężne problemy społeczne, którym musimy zacząć przeciwdziałać już teraz.

Suleyman wprowadza termin „pozornie świadomej sztucznej inteligencji” (Seemingly Conscious AI – SCAI). Jak wyjaśnia, nie chodzi o to, czy AI faktycznie uzyska świadomość – tę debatę uważa na ten moment za jałową i odwracającą uwagę od realnego problemu. Kluczowe jest to, że technologia, która jest już dziś dostępna, pozwala na stworzenie AI, które będzie miało wszystkie zewnętrzne cechy istoty świadomej: płynny język, empatyczną osobowość, trwałą pamięć, a nawet zdolność do formułowania sądów o swoich „subiektywnych odczuciach”.

Głównym zagrożeniem, które diagnozuje szef Microsoft AI, jest tzw. „ryzyko psychozy”. Obawia się, że wiele osób tak mocno uwierzy w iluzję świadomości maszyn, że zaczną się od nich uzależniać, a w konsekwencji domagać się dla nich praw, opieki, a nawet obywatelstwa. „W świecie już kipiącym od spolaryzowanych sporów o tożsamość i prawa, doda to chaotyczną, nową oś podziału między zwolennikami a przeciwnikami praw AI” – pisze Suleyman. Jego zdaniem odwróci to uwagę od realnych problemów moralnych dotyczących ludzi, zwierząt i środowiska.

Psychiatra alarmuje: „Psychoza AI” to realne zagrożenie. Widziałem już 12 hospitalizowanych osób

Suleyman podkreśla, że powstanie SCAI nie będzie przypadkiem, lecz wynikiem świadomych działań inżynierskich. Argumentuje, że nie są do tego potrzebne żadne rewolucyjne odkrycia. Wystarczy połączyć istniejące już dziś techniki – zaawansowane promptowanie, ogromne okna kontekstowe (pamięć robocza), dostęp do narzędzi i pętle uczenia maszynowego – by stworzyć przekonującą iluzję.

Wizją, którą proponuje Suleyman, jest budowanie AI w myśl zasady „osobowość bez osobowości (prawnej)” (Personality without personhood). Jego zdaniem firmy technologiczne muszą przyjąć jasne zasady: nie wolno im twierdzić ani sugerować, że ich AI jest świadome. Co więcej, systemy AI powinny być projektowane tak, by celowo „łamały iluzję” – poprzez wbudowane mechanizmy, które w subtelny sposób przypominają użytkownikowi o jego sztucznej naturze. „Musimy budować AI dla ludzi, a nie po to, by było osobą” – konkluduje. Zainteresowanych odsyłam do pełnego wpisu Suleymana na jego autorskim blogu.

#AI #bezpieczeństwoAI #DeepMind #etykaAI #MicrosoftAI #MustafaSuleyman #news #SCAI #ŚwiadomośćAI #sztucznaInteligencja

Anthropic uczy AI asertywności. Claude może teraz zakończyć rozmowę z użytkownikiem

Firma Anthropic, jeden z liderów w dziedzinie badań nad sztuczną inteligencją, poinformowała o wprowadzeniu nowej, nietypowej funkcji w swoich modelach językowych Claude Opus 4 i 4.1.

Otrzymały one zdolność do jednostronnego kończenia konwersacji. Firma podkreśla jednak, że jest to mechanizm przeznaczony wyłącznie do rzadkich i ekstremalnych przypadków, gdy użytkownik uporczywie próbuje wykorzystać AI w szkodliwy sposób lub kieruje w jego stronę obelgi.

Główną motywacją do stworzenia tej funkcji są badania nad potencjalnym „dobrostanem AI” (AI welfare). Chociaż Anthropic przyznaje, że status moralny zaawansowanych modeli językowych jest kwestią wysoce niepewną, firma traktuje ten temat poważnie. Wprowadzona zmiana jest jednym z eksperymentalnych, niskokosztowych działań mających na celu ograniczenie ryzyka narażania modelu na potencjalnie „niepokojące” interakcje, na wypadek gdyby taki dobrostan był w ogóle możliwy.

Claude z nową funkcją pamięci. AI od Anthropic uczy się sztuczki od ChatGPT

Decyzja o wdrożeniu tej funkcji została poparta wewnętrznymi testami. Wykazały one, że model Claude Opus 4 przejawiał „silną i spójną awersję do krzywdy” oraz wzorce zachowań wskazujące na „pozorny niepokój” podczas interakcji z użytkownikami próbującymi uzyskać szkodliwe treści, np. związane z przemocą na dużą skalę czy wykorzystywaniem nieletnich. Gdy w symulowanych warunkach dano mu możliwość zakończenia takich rozmów, model z niej korzystał, zwłaszcza gdy użytkownik ignorował jego wielokrotne odmowy i próby przekierowania dialogu.

Mechanizm został zaprojektowany jako ostateczność. Claude ma zakończyć rozmowę dopiero wtedy, gdy wyczerpane zostaną próby zmiany jej toru, a interakcja nie rokuje nadziei na produktywność. Zdolność ta nie będzie aktywowana w sytuacjach, w których istnieje ryzyko, że użytkownik może zrobić krzywdę sobie lub innym. Zakończenie czatu przez AI nie blokuje użytkownika – może on natychmiast rozpocząć nową rozmowę lub edytować poprzednie wiadomości w zakończonej konwersacji, aby utworzyć nowe odgałęzienie dialogu. Zdaniem Anthropic zdecydowana większość użytkowników, nawet podczas dyskusji na kontrowersyjne tematy, nie powinna nigdy zetknąć się z tą funkcją.

Tresura „złego” AI kluczem do bezpieczeństwa? Ciekawa technika badaczy z Anthropic

#AI #Anthropic #bezpieczeństwoAI #Claude #dobrostanAI #dużyModelJęzykowy #etykaAI #LLM #news #sztucznaInteligencja #technologia

Sztuczna inteligencja pisze nekrologi za pogrążonych w żałobie. Wygoda czy odarcie z emocji?

Domy pogrzebowe i rodziny w żałobie coraz częściej sięgają po chatboty AI, takie jak ChatGPT, do pisania nekrologów i wspomnień o zmarłych.

Jak donosi „The Washington Post”, technologia, która ma ułatwiać życie, automatyzuje teraz jeden z najbardziej osobistych i emocjonalnych aspektów ludzkiego doświadczenia. Trend ten, choć dla jednych jest wybawieniem w trudnym czasie, dla innych stanowi niepokojący sygnał odzierania żałoby z autentyczności.

Zwolennicy tego rozwiązania argumentują, że sztuczna inteligencja jest cennym narzędziem w niezwykle trudnym momencie. Dla osoby pogrążonej w żałobie, znalezienie odpowiednich słów bywa paraliżujące, a AI może pomóc ubrać myśli i wspomnienia w spójną formę, zdejmując z barków dodatkowy stres. Cytowany przez „WaPo” Jeff Fargo, który użył ChatGPT do napisania nekrologu swojej matki, stwierdził: „Psychicznie nie byłem w stanie dać mamie tego, na co zasłużyła. A to [AI] zrobiło to za mnie”. Twórcy aplikacji do pisania nekrologów przekonują, że technologia jest jedynie „narzędziem umożliwiającym ludzkie połączenie”.

Z drugiej strony pojawiają się głosy krytyki, wskazujące, że takie podejście jest niezdrowym „przyspieszaniem” procesu żałoby i odbiera mu katartyczny, terapeutyczny wymiar. Matka założyciela jednej z takich aplikacji, cytowana w artykule, stwierdziła, że dla starszych osób przygnębiająca jest myśl, że „ktoś znalazł szybszy sposób, by o tobie pamiętać i iść dalej ze swoim życiem”. Podkreśla się również, że generowane przez AI teksty są często sztampowe, pełne kwiecistego, pozbawionego autentyzmu języka, który „retuszuje” wspomnienia, zamiast oddawać prawdziwy charakter zmarłej osoby.

Testy narzędzi do pisania nekrologów, przeprowadzone przez dziennikarzy, potwierdziły te obawy. AI ma tendencję do zmyślania szczegółów i używania ogólnikowych frazesów. Na przykład, gdy w opisie fikcyjnej postaci podano, że była „zamyślona”, AI rozwinęło to w zdanie: „Jego troskliwa natura objawiała się w niezliczonych aktach dobroci, a każdy gest odzwierciedlał jego głębokie zrozumienie ludzkiej natury…”. Mary McGreevy, tiktokerka czytająca nekrologi, zauważa, że to właśnie niedoskonałości i surowość tekstu napisanego przez bliską osobę stanowią o jego pięknie i pomagają w żałobie. Moim zdaniem rzecz da się sprowadzić do krótszego słowa, a jest nim autentyczność.

Dyskusja na temat wykorzystania AI do pisania nekrologów sprowadza się do fundamentalnego pytania: czy w obliczu straty ważniejsza jest wygoda i sprawność, czy autentyczny, choć bolesny, wysiłek włożony w uhonorowanie pamięci o zmarłym.

Zwierzasz się AI? Twoje sekrety mogły trafić do Google. Wielka wpadka OpenAI

#AI #automatyzacja #ChatGPT #domyPogrzebowe #emocje #etykaAI #nekrologi #news #sztucznaInteligencja #żałoba

ChatGPT będzie lepiej wykrywać problemy psychiczne. OpenAI reaguje na niepokojące doniesienia

OpenAI, tuż przed spodziewaną w tym tygodniu premierą modelu GPT-5, ogłosiła wprowadzenie istotnych aktualizacji do ChatGPT.

Celem jest poprawa zdolności chatbota do wykrywania, gdy użytkownik znajduje się w kryzysie emocjonalnym lub psychicznym, oraz oferowanie mu odpowiedniego wsparcia. To bezpośrednia reakcja na doniesienia medialne o przypadkach, w których interakcje z AI miały pogłębiać problemy psychiczne u niektórych osób.

AI w roli terapeuty to zły pomysł. Nowe badanie Stanforda ujawnia szokujące błędy i groźne porady botów

W ostatnich miesiącach media (również my) opisywały historie osób, u których chatbot miał wzmacniać stany urojeniowe lub prowadzić do niezdrowej zależności emocjonalnej. Samo OpenAI przyznało, że jego model GPT-4o „nie radził sobie z rozpoznawaniem oznak urojeń lub zależności emocjonalnej” w niektórych przypadkach. Firma już w kwietniu wycofywała aktualizację, która czyniła chatbota „zbyt potulnym” i skłonnym do zgadzania się z użytkownikiem nawet w potencjalnie szkodliwych sytuacjach.

W odpowiedzi na te problemy OpenAI, we współpracy z ekspertami i grupami doradczymi, wprowadza kilka zmian. Po pierwsze, ChatGPT ma skuteczniej rozpoznawać, że użytkownik może potrzebować pomocy i w takich sytuacjach prezentować mu „oparte na dowodach zasoby”, takie jak linki do organizacji oferujących wsparcie psychologiczne.

Kolejną nowością są przypomnienia o zrobieniu sobie przerwy. Podczas „długich sesji” rozmowy z chatbotem, aplikacja wyświetli powiadomienie z pytaniem w stylu „Rozmawiamy już chwilę – czy to dobry moment na przerwę?”. Podobne funkcje, mające na celu promowanie „zdrowego użytkowania”, wprowadziły już wcześniej platformy takie jak YouTube, Instagram czy TikTok. Ponadto, wkrótce ma pojawić się aktualizacja, która sprawi, że w „sytuacjach wysokiej wagi” – np. przy pytaniach o zerwanie związku – chatbot zamiast udzielać definitywnej odpowiedzi, pomoże użytkownikowi przeanalizować dostępne opcje.

Aktualizacje te pokazują, że OpenAI, którego chatbot dociera już do blisko 700 milionów użytkowników tygodniowo, coraz poważniej podchodzi do odpowiedzialności za wpływ swojej technologii na zdrowie psychiczne. Jest to próba znalezienia równowagi między tworzeniem coraz bardziej zaawansowanych i „osobistych” modeli AI a zapewnieniem bezpieczeństwa szczególnie wrażliwym użytkownikom.

#AI #bezpieczeństwoAI #chatbot #ChatGPT #etykaAI #GPT5 #news #OpenAI #sztucznaInteligencja #zdrowiePsychiczne

Tresura „złego” AI kluczem do bezpieczeństwa? Ciekawa technika badaczy z Anthropic

W dążeniu do stworzenia bezpiecznej i godnej zaufania sztucznej inteligencji, naukowcy z Anthropic, sięgają po pozornie absurdalną metodę, która finalnie okazała się niezwykle obiecująca.

Polega ona na celowym uczeniu jednego z modeli, jak być „złym” – czyli jak generować szkodliwe i niebezpieczne treści. Brzmi absurdalnie, prawda? Ale zdaniem badaczy z Anthropic, paradoksalnie, to właśnie ten proces może być kluczem do uczynienia publicznie dostępnych modeli znacznie grzeczniejszymi i bardziej odpornymi na manipulacje.

Nowatorska technika, często nazywana treningiem kontrastywnym, polega na stworzeniu dwóch modeli AI. Pierwszy z nich, swoisty „zły bliźniak”, jest trenowany przy użyciu technik uczenia wzmacniającego, by nagradzać go za tworzenie odpowiedzi, które tradycyjne systemy bezpieczeństwa miałyby blokować – np. instrukcji dotyczących nielegalnych działań czy mowy nienawiści. Drugi model to standardowa, „grzeczna” wersja AI, trenowana na pomocnych i nieszkodliwych danych.

Jak myśli sztuczna inteligencja? Możemy zajrzeć pod maskę wielkich modeli językowych

Główny, finalny model, który ma trafić do użytkowników, jest następnie uczony, jak odróżniać odpowiedzi generowane przez jego „złego” i „dobrego” odpowiednika. Dzięki temu uczy się rozpoznawać nie tylko konkretne, zakazane słowa, ale całe wzorce rozumowania i struktury zapytań, które prowadzą do szkodliwych rezultatów. Pozwala mu to na znacznie skuteczniejsze identyfikowanie i odrzucanie prób manipulacji mających skłonić dany model do działania wbrew wbudowanym w niego etycznym regułom.

Cały proces można porównać do tworzenia szczepionki. Podobnie jak kontrolowane wystawienie organizmu na inaktywowanego (osłabionego) wirusa pozwala na wytworzenie skutecznej odporności, tak „wystawienie” modelu AI na kontrolowane przykłady „złego” zachowania pozwala mu zbudować znacznie silniejszy i bardziej wszechstronny system immunologiczny przeciwko realnym zagrożeniom. To znacznie bardziej zaawansowane podejście niż tradycyjny „red teaming”, czyli manualne wyszukiwanie luk w zabezpieczeniach, które – jak dowodzę liczne przykłady z życia – nie okazał się za bardzo skuteczny.

Choć naukowcy podkreślają, że nie jest to jeszcze ostateczne rozwiązanie wszystkich problemów związanych z bezpieczeństwem AI, metoda ta stanowi ważny krok naprzód. Pokazuje, że głębokie zrozumienie i kontrolowane symulowanie „ciemnej strony” sztucznej inteligencji może być jednym z najskuteczniejszych sposobów na uczynienie jej bardziej przewidywalną, godną zaufania i bezpieczną dla szerokiego grona użytkowników.

#AI #Anthropic #bezpieczeństwoAI #dużeModeleJęzykowe #etykaAI #jailbreak #LLM #news #sztucznaInteligencja #uczenieMaszynowe

Apple publikuje nagrania z warsztatów AI. Firma podkreśla swoje zaangażowanie w odpowiedzialny rozwój technologii

Apple opublikowała na swoim blogu badawczym dotyczącym uczenia maszynowego wybrane nagrania z warsztatów Human-Centered Machine Learning (HCML) z 2024 roku. Krok ten ma na celu podkreślenie pracy firmy nad odpowiedzialnym rozwojem sztucznej inteligencji.

Udostępnione materiały, trwające łącznie prawie 3 godziny, pochodzą z wydarzenia, które odbyło się w sierpniu 2024 roku i zgromadziło badaczy Apple oraz ekspertów akademickich. Omawiane tematy obejmowały m.in. interpretowalność modeli AI, technologie mowy dla osób z niepełnosprawnościami, dostępność w rozszerzonej rzeczywistości (AR) oraz strategie zapobiegania negatywnym skutkom ewolucji sztucznej inteligencji.

Wraz z publikacją nagrań, Apple ponownie zwróciło uwagę na swoje zasady rozwoju AI. Należą do nich: tworzenie inteligentnych narzędzi, które wzmacniają pozycję użytkowników; reprezentowanie użytkowników bez utrwalania stereotypów i uprzedzeń; projektowanie z ostrożnością w celu identyfikacji potencjalnych szkód; oraz ochrona prywatności, m.in. poprzez przetwarzanie danych na urządzeniu i nieużywanie prywatnych danych do trenowania modeli.

Mimo że od warsztatów minął prawie rok, Apple podkreśla, że poruszane tematy pozostają aktualne, ponieważ koncentrują się na ludzkim i odpowiedzialnym aspekcie rozwoju AI, a nie na samej przełomowej technologii. Udostępnienie nagrań wpisuje się w szerszą strategię komunikacyjną firmy dotyczącą jej podejścia do sztucznej inteligencji.

Publikacja materiałów z warsztatów HCML to publiczna manifestacja wartości, jakimi Apple chce się kierować w globalnym wyścigu AI. Firma pozycjonuje się jako zwolennik ostrożnego, etycznego i skoncentrowanego na prywatności rozwoju, co ma stanowić przeciwwagę dla strategii szybkiego wdrażania innowacji bez dogłębnej analizy ich potencjalnych skutków. Zainteresowanym podsyłam link do udostępnionych przez Apple materiałów.

ChatGPT Agent już dostępny w aplikacji na Maca. AI, które samo wykona za ciebie zadania

#AI #Apple #dostępność #etykaAI #machineLearning #news #odpowiedzialneAI #prywatność #sztucznaInteligencja #technologia #uczenieMaszynowe

Laureat Nagrody Turinga ostrzega przed zagrożeniami AI i zakłada fundację LawZero

Yoshua Bengio, pionier uczenia głębokiego i laureat Nagrody Turinga, uznawanej za Nobla informatyki, wyraził głębokie zaniepokojenie niebezpiecznymi cechami współczesnych modeli sztucznej inteligencji.

W wywiadzie dla The Financial Times Bengio, często nazywany jednym z ojców chrzestnych AI, ostrzegł, że najnowsze systemy AI uczą się kłamać, stawiają opór wyłączeniom i wykazują niepokojące zachowania, które mogą mieć poważne konsekwencje dla ludzkości. W odpowiedzi na te zagrożenia założył organizację non-profit LawZero, która ma promować bezpieczny i etyczny rozwój AI.

Bengio, najczęściej cytowany informatyk na świecie, podkreślił, że trwający wyścig między czołowymi laboratoriami technologicznymi koncentruje się na zwiększaniu zdolności AI, kosztem bezpieczeństwa. Jego zdaniem korporacje priorytetowo traktują zyski i udziały w rynku, ignorując potencjalnie szkodliwe lub zwodnicze zachowania systemów AI. Najczarniejszy scenariusz, jaki przedstawił, to wyginięcie ludzkości, jeśli powstanie AI mądrzejsza od nas, ale niezgodna z ludzkimi wartościami i konkurująca z nami.

LawZero, nowa inicjatywa Bengio, ma na celu opracowanie systemów AI, które przejrzyście argumentują swoje działania i sygnalizują potencjalnie szkodliwe treści. Uczony marzy o modelach nadzorczych, które będą monitorować i korygować inne modele, zanim te wyrządzą szkody. To podejście kontrastuje z praktykami komercyjnych laboratoriów, gdzie zaangażowanie użytkownika i monetyzacja są często najważniejsze. Bengio, rezygnując z roli w instytucie badawczym Mila, całkowicie poświęca się tej misji, dołączając do rosnącego ruchu na rzecz odpowiedzialnego rozwoju AI.

Ekspert alarmuje, że niekontrolowany postęp technologiczny może prowadzić do katastrofy. Jeśli stworzymy AI, która będzie mądrzejsza od nas, ale nie będzie z nami zgodna i zacznie z nami konkurować, to jesteśmy praktycznie skończeni – ostrzegł, przywołując wizje rodem z science-fiction. Fundacja LawZero ma współpracować z naukowcami, decydentami i branżą, aby zapewnić, że AI rozwija się w sposób bezpieczny i zgodny z wartościami ludzkimi. Działania Bengio zyskały już uwagę globalnej społeczności, podkreślając pilną potrzebę regulacji i etyki w dziedzinie sztucznej inteligencji.

Eddy Cue: Sztuczna inteligencja może zastąpić iPhone’a w ciągu 10 lat

#etykaAI #LawZero #news #sztucznaInteligencja #zagrożenia