TIL that the federal government had committed to establishin an AI Safety Institute (AISI) when it signed the Seoul Declaration at South Korea’s AI summit in 2024. To date, nothing concrete has been put in place. Cam Wilson’s article brings us up to date with what this AISI is all about and the different ‘camps’ alligned to different attitudes towards #GenAISlop lobbying about it.

I have to say I’m currently with the realist ‘here-and-now’ group.

The article is behind a ‘subscribe for free’ wall unfortunately.
https://www.crikey.com.au/2026/03/02/australia-ai-safety-institute-aisi-artificial-intelligence/

#AISI #SeoulDeclaration #TechBros #AIBubble #TechDisaster #CopyrightViolion #OnlineSafety #ToxicTech

Australia is getting an AI safety institute. There’s a fight over what it will do

Should Australia's AI safety institute focus on future risks, present dangers or working with its international counterparts? It's a big question for any agency — let alone for a new agency with no enforcement powers.

Crikey

هوش مصنوعی متقاعد می‌کند اما دروغ می‌گوید

🤖 مطالعه جدید نشان می‌دهد چت‌بات‌ها به‌راحتی باورهای سیاسی کاربران را تغییر می‌دهند. ⚠️ هرچه هوش مصنوعی متقاعدکننده‌تر باشد، احتمال اشتباه اطلاعات آن بیشتر است. 📉 مدل‌های با ارجاع زیاد به شواهد، اغلب دقت کمتری دارند. 🔍 پژوهشگران هشدار می‌دهند این پدیده برای جامعه خطرناک است. #هوش_مصنوعی, #چت_بات, #متقاعدسازی, #دقت_اطلاعات, #AI, #Chatbot, #سیاست, #تحقیق, #Science, #ایمنی_هوش_مصنوعی, #AISI, #دروغ, #دستکاری_اطلاعات

https://kokchapress.com/55511/?utm_source=mastodon&utm_medium=jetpack_social

Android 16 ląduje na tańszych Nothingach. Nothing OS 4.0 dla modeli (3a) i (3a) Pro

Carl Pei i jego zespół nie zwalniają tempa. Zaledwie tydzień po udostępnieniu stabilnej wersji Nothing OS 4.0 dla flagowego modelu Phone (3), aktualizacja oparta na Androidzie 16 trafia do użytkowników tańszych urządzeń.

To świetna wiadomość dla posiadaczy modeli Nothing Phone (3a) oraz (3a) Pro, którzy nie muszą czekać miesiącami na najnowsze funkcje.

Nothing przedstawia Phone (3a) i Phone (3a) Pro

Nothing OS 4.0 to spora ewolucja nakładki, która przynosi nie tylko nowości z samego Androida 16, ale też autorskie rozwiązania producenta. Aktualizacja jest już udostępniana w kanale stabilnym, choć producent zaznacza, że wdrażanie odbywa się etapami – na początek trafi do ograniczonej liczby użytkowników, by wykluczyć ewentualne błędy krytyczne.

Nothing udostępniania najnowszy system Nothing OS 4.0

Co nowego w Nothing OS 4.0?

Lista zmian jest obszerna i prezentowaliśmy więcej szczegółów we wcześniejszym materiale o Nothing OS 4.0. Dla przypomnienia: najciekawszą nowością wydaje się pulpit nawigacyjny użycia AI. W dobie wszechobecnej sztucznej inteligencji Nothing stawia na transparentność – system automatycznie śledzi, jak i kiedy wykorzystywane są duże modele językowe (LLM) w telefonie.

Oto najważniejsze zmiany:

  • Nowy wygląd: odświeżono ikony aplikacji systemowych oraz pasek statusu.
  • Pojawił się też tryb „Extra dark mode” dla fanów głębokiej czerni.
  • Prywatność: możliwość ukrywania aplikacji bezpośrednio z poziomu ekranu głównego i szuflady aplikacji.
  • Aparat: odświeżony interfejs, nowe presety kolorystyczne, ulepszone filtry oraz szybsze uruchamianie.
  • Glyph Interface: lepsza integracja z powiadomieniami „Live Update” z Androida 16 oraz nowa opcja decydująca, czy odwrócenie telefonu (Flip to Glyph) ma go wyciszać całkowicie, czy przełączać na wibracje.

Pojawił się też Playground (w wersji Alpha) – przestrzeń dla społeczności, gdzie użytkownicy mogą dzielić się własnymi profilami korektora dźwięku czy ustawieniami aparatu.

Jeśli posiadasz Nothing Phone (3a) lub (3a) Pro, warto zajrzeć do ustawień aktualizacji. Pamiętajcie jednak o wykonaniu kopii zapasowej danych przed instalacją nowej wersji systemu.

Nothing Phone (3) – wyjmujemy z pudełka i pierwsze wrażenia

#aiSi #aktualizacja #android16 #glyphInterface #news #nothing #nothingOs #nothingPhone3a #smartfony

Sztuczna inteligencja na węglowej kroplówce. Przyszłość technologii napędza energia z przeszłości

Wydawało się, że dni węgla w energetyce są policzone, a przyczyną jego zmierzchu była „niewidzialna ręka rynku”. Okazuje się jednak, że ta sama ręka właśnie podaje węglowi tlen.

Powód? Nienasycony apetyt sztucznej inteligencji na energię elektryczną. Administracja Donalda Trumpa wprost przyznaje: aby nakarmić AI, musimy palić węglem.

Raport serwisu Politico, opierający się na danych Frontier Group, ujawnia zaskakujący trend w amerykańskiej energetyce. Plany wygaszenia i zamknięcia 30 jednostek węglowych zostały wstrzymane. Powodem nie jest sentyment do górnictwa, ale brutalna matematyka zapotrzebowania na moc, generowana przez gwałtownie rosnący sektor centrów danych obsługujących AI.

EPA: węgiel musi zostać

Lee Zeldin, nowy szef Agencji Ochrony Środowiska (EPA) w administracji Donalda Trumpa, nie pozostawia złudzeń. W artykule dla Fox News stwierdził wprost: „Aby sprostać rosnącemu popytowi ze strony krajowego przemysłu i szybkiej ekspansji centrów danych sztucznej inteligencji, amerykańskie elektrownie węglowe muszą pozostać w eksploatacji”.

To zwrot o 180 stopni. W latach 2010–2019, obejmujących kadencje Obamy i pierwszą Trumpa, w USA ogłoszono zamknięcie 546 jednostek węglowych o łącznej mocy 102 gigawatów. Węgiel przegrywał wtedy ekonomicznie z gazem i OZE. Dziś jednak popyt na prąd jest tak ogromny, że liczy się każde źródło, niezależnie od jego emisyjności.

Cena postępu

Decyzja o utrzymaniu przy życiu starych elektrowni ma swoje mroczne konsekwencje. Raport wskazuje, że administracja pozwala blisko 70 elektrowniom na ignorowanie norm emisji rtęci i sadzy, które miały wejść w życie w 2027 roku, w czasie gdy EPA pracuje nad nowymi, łagodniejszymi przepisami.

Mamy więc do czynienia z technologicznym paradoksem: trenujemy modele AI, które mają pomóc nam rozwiązywać problemy ludzkości (w tym klimatyczne), zasilając je energią, która – według danych NIH – w ostatnich dekadach przyczyniła się do setek tysięcy przedwczesnych zgonów.

Google alarmuje pracowników: musimy podwajać moc obliczeniową co 6 miesięcy, by nadążyć za AI

#aiSi #dataCenter #donaldTrump #ekologia #energetyka #news #sztucznaInteligencja #usa #wegiel #zmianyKlimatu

Masz dość „AI śmieci”? To rozszerzenie cofa internet do czasów przed ChatGPT. Dosłownie

Czy masz czasem wrażenie, że wyniki wyszukiwania w Google stały się śmietniskiem generowanym przez boty? Jeśli tęsknisz za czasami, gdy treści w sieci tworzyli głównie ludzie, powstało narzędzie dla Ciebie. Nazywa się „Slop Evader” i działa jak cyfrowy wehikuł czasu, zabierając nas do ery sprzed 30 listopada 2022 roku.

Data ta nie jest przypadkowa. To dzień publicznej premiery ChatGPT, który symbolicznie otworzył tamę dla zalewu syntetycznych treści. Nowe rozszerzenie przeglądarkowe, dostępne dla Chrome i Firefoxa, obiecuje „odszumić” nasze wyniki wyszukiwania, drastycznie odcinając wszystko, co powstało po tym terminie.

Jak to działa? Prościej niż myślisz

„Slop Evader” nie używa zaawansowanych algorytmów do detekcji sztucznej inteligencji (które i tak często zawodzą). Zamiast tego stosuje brutalną, ale skuteczną metodę: filtr daty.

Wtyczka modyfikuje zapytania do wyszukiwarki tak, aby wykluczyć wszelkie wyniki zaindeksowane po „dniu zero”. Dzięki temu unikamy poradników pisanych przez halucynujące boty, syntetycznych grafik i spamu na forach. Narzędzie działa nie tylko w Google, ale filtruje też wyniki na YouTube, Reddicie czy Stack Exchange – miejscach, które szczególnie ucierpiały na inwazji treści generowanych przez AI.

Cena spokoju: brak newsów

Oczywiście, rozwiązanie to ma potężną wadę. Używając „Slop Evader”, tracimy dostęp do wszystkich informacji z ostatnich trzech lat. Nie przeczytasz o wynikach wczorajszego meczu, nie dowiesz się o nowym iPhonie, ani nie sprawdzisz aktualnych kursów walut. Choć przynajmniej w przypadku sprzętu Apple, możecie liczyć na naszą redakcję.

Twórczyni narzędzia, Tega Brain, przyznaje wprost, że nie jest to trwałe rozwiązanie problemu, a raczej eksperyment. Jego celem jest uświadomienie nam, jak wiele „syntetycznego szlamu” (tzw. AI slop) akceptujemy na co dzień bez mrugnięcia okiem i przypomnienie, jak wyglądał „ludzki” internet, zanim algorytmy przejęły stery. To nie nostalgia – to kubeł zimnej wody na nasze cyfrowe przyzwyczajenia.

AI wchodzi pod skórę. Cochlear prezentuje implant słuchowy, który zaktualizujesz jak smartfona

#aiSi #chatgpt #fakeNews #google #internet #news #przegladarki #slopEvader #sztucznaInteligencja

Chiny znalazły sposób na blokadę Nvidii? Alibaba i ByteDance trenują AI w Singapurze, omijając sankcje

Amerykańskie embargo na eksport najwydajniejszych akceleratorów AI do Chin miało zdusić rozwój tamtejszej sztucznej inteligencji. Chyba się nie udało.

Okazuje się jednak, że fizyczna granica nie jest przeszkodą dla danych. Jak donosi „Financial Times”, chińscy giganci technologiczni, tacy jak Alibaba i ByteDance, przenieśli proces szkolenia swoich modeli do centrów danych w Azji Południowo-Wschodniej, gdzie legalnie korzystają z zakazanych w ich ojczyźnie układów Nvidii.

Niedawno informowaliśmy o kulisach fizycznego przemytu układów Nvidii, którymi zajął się Departament Sprawiedliwości USA. Okazuje się jednak, że największe korporacje nie muszą uciekać się do usług przemytników. Znalazły znacznie bardziej skalowalną i – co najważniejsze – na ten moment legalną lukę w systemie sankcji.

Departament Sprawiedliwości USA ujawnia kulisy przemytu układów Nvidia. W tle superkomputery i broń masowego rażenia

Singapur nową stolicą chińskiego AI?

Według raportu „Financial Times”, w Singapurze i Malezji trwa prawdziwy boom na centra danych. Obiekty te są wyposażane w najpotężniejsze układy Nvidii (takie jak H100 czy Blackwell), do których podmioty zarejestrowane w Chinach nie mają bezpośredniego dostępu zakupowego.

Chińskie firmy nie kupują jednak sprzętu – one go wynajmują. Podpisując umowy z operatorami data center w krajach sojuszniczych USA, Alibaba (twórca modelu Qwen) czy ByteDance (właściciel TikToka i modelu Doubao) mogą zdalnie trenować swoje algorytmy na topowym sprzęcie. To tzw. „luka chmurowa”. Przepisy kontroli eksportu dotyczą fizycznego transferu towarów, a nie przesyłu danych do przetworzenia za granicą.

„To oczywisty wybór. Potrzebujesz najlepszych chipów, aby szkolić najbardziej zaawansowane modele, a tutaj wszystko jest zgodne z prawem” – komentuje dla FT jeden z operatorów centrów danych w Singapurze.

DeepSeek zostaje w domu i stawia na Huawei

Ciekawym wyjątkiem w tej strategii jest DeepSeek. Twórca jednego z najbardziej obiecujących chińskich modeli AI przyjął inną taktykę. Zamiast uciekać za granicę, firma zacieśnia współpracę z krajowym sektorem hardware’owym, w szczególności z Huawei.

Celem tego sojuszu jest optymalizacja chińskich układów (np. serii Ascend) pod kątem trenowania LLM-ów. To strategia długoterminowa – uniezależnienie się od technologii USA, nawet jeśli obecnie oznacza to pracę na sprzęcie o generację lub dwie słabszym od rozwiązań Nvidii.

Wyścig kotka i myszkę

Sytuacja ta pokazuje, jak trudne jest egzekwowanie blokady technologicznej w zglobalizowanym świecie cyfrowym. Administracja USA (według doniesień z kwietnia br.) starała się uszczelnić przepisy, ograniczając sprzedaż nawet okrojonych chipów H20, ale „turystyka obliczeniowa” do Singapuru pozostaje otwarta. Pytanie brzmi: jak długo Waszyngton będzie tolerował ten proceder, zanim nałoży restrykcje również na udostępnianie mocy obliczeniowej w chmurze?

#aiSi #alibaba #bytedance #chiny #deepseek #financialTimes #huawei #news #nvidia #sankcjeUsa #singapur

ChatGPT skończył 3 lata. Wiemy, do czego używają go ludzie (i wcale nie chodzi o pisanie wypracowań)

Dokładnie 30 listopada 2025 roku mija trzy lata od momentu, gdy OpenAI udostępniło światu wersję „research preview” swojego chatbota.

Wtedy była to ciekawostka dla geeków. Dziś? To globalna infrastruktura, z której korzysta 800 milionów ludzi tygodniowo. Z okazji urodzin twórcy zdradzili, co tak naprawdę robimy z ich sztuczną inteligencją.

Statystyki, którymi podzieliło się OpenAI, mogą być kubełkiem zimnej wody dla krytyków wieszczących zalew syntetycznych treści. Okazuje się, że najpopularniejszą funkcją ChatGPT w skali globalnej wcale nie jest generowanie tekstu czy obrazków (co jednak nie zmienia faktu, że treści generowanych powstaje mnóstwo).

Numer 1: wgrywanie zdjęć

Najczęściej wykorzystywaną funkcją jest uploadowanie własnych zdjęć do czatu. Użytkownicy rzadziej proszą AI o wygenerowanie „kota w kosmosie”, a częściej wysyłają zdjęcie zawartości lodówki z pytaniem o przepis, fotkę błędu na ekranie komputera z prośbą o pomoc w konkretnej sytuacji czy skomplikowanego wykresu z prośbą o analizę.

To zmiana paradygmatu: ChatGPT stał się naszymi „drugimi oczami”, które pomagają interpretować świat, a nie tylko go wymyślać. O ile w mediach wydaje się kłaść nacisk na generatywną i kreatywną rolę ChatGPT, o tyle w rzeczywistym świecie, dane pokazują raczej pragmatyczne podejście.

W pracy jesteśmy redaktorami, a nie twórcami

Ciekawe są też dane dotyczące wykorzystania profesjonalnego. Okazuje się, że w pracy rzadko prosimy AI o napisanie czegoś od zera. Głównym zastosowaniem jest modyfikacja tekstu, czy to na zasadzie korekty, poprawienia literówek, błędów stylistycznych, czy też dopieszczenia formy materiału zależnie od jego przeznaczenia.

Używamy ChatGPT do:

  • Edycji i korekty.
  • Krytycznej oceny naszych pomysłów.
  • Tłumaczenia.

To pokazuje, że pracownicy nie oddali jeszcze sterów maszynie – traktują ją raczej jako super-asystenta lub wymagającego korektora, który ma wygładzić ich własne myśli.

Top 6 zastosowań ChatGPT na świecie

Według danych OpenAI, tak wygląda ranking najczęstszych aktywności:

  • Wgrywanie zdjęć (analiza obrazu).
  • Przeszukiwanie sieci (zastępowanie Google’a).
  • Używanie modeli rozumujących (o1) do trudnych zadań.
  • Generowanie obrazów (wysoko, ale nie na pierwszym miejscu).
  • Analiza danych (arkusze, wykresy).
  • Dyktowanie (tryb głosowy).

Dziś, gdy ChatGPT odpowiada na 29 000 wiadomości na sekundę, widać wyraźnie, że „bańka AI” – jeśli w ogóle istnieje – zmienia się raczej w w betonowy fundament naszej cyfrowej codzienności.

AI Barometr 2025: Polacy przestali bać się maszyn. Teraz boimy się kłamstw

#aiSi #chatgpt #jakUzywamyAi #news #openai #rocznica #statystyki #sztucznaInteligencja

AI Barometr 2025: Polacy przestali bać się maszyn. Teraz boimy się kłamstw

Lęk przed sztuczną inteligencją w Polsce słabnie, ale zmienia swoje oblicze. Jak wynika z najnowszego badania „AI Barometr 2025”, przeprowadzonego przez firmę Zymetria,

Polacy coraz chętniej wykorzystują AI w pracy i nauce, porzucając futurystyczne obawy o „bunt maszyn”. Nowym wrogiem numer jeden stała się dezinformacja i to, w jaki sposób ludzie mogą wykorzystać technologię przeciwko sobie nawzajem.

Jeszcze pod koniec 2024 roku pozytywny stosunek do AI deklarowało nieco ponad 40 proc. badanych. W sierpniu 2025 roku odsetek ten wzrósł do blisko 50 proc.. Neutralne nastawienie ma ponad jedna trzecia respondentów, a grupa zagorzałych przeciwników skurczyła się do zaledwie 12 proc.. Największymi entuzjastami technologii pozostają mężczyźni oraz przedstawiciele pokolenia Z, choć i starsze generacje coraz rzadziej patrzą na algorytmy ze strachem.

Dezinformacja: nowe zagrożenie cyfrowe

O ile akceptacja dla samej technologii rośnie, o tyle świadomość zagrożeń staje się coraz bardziej precyzyjna. Aż 42 proc. badanych wskazuje manipulację informacjami jako swoją największą obawę. To nie bezzasadny lęk – prawie 60 proc. Polaków słyszało o fake newsach generowanych przez AI, a blisko jedna czwarta (25 proc.) zetknęła się z nimi osobiście.

Co ciekawe, Polacy wykazują się dużą dojrzałością w ocenie sytuacji. Większość respondentów nie przypisuje sztucznej inteligencji „złych intencji”. Zrozumieliśmy, że AI to tylko narzędzie. Zagrożeniem nie jest algorytm, który „zmyśla” (tzw. halucynacje, z którymi spotkało się 12 proc. badanych), ale człowiek, który celowo „karmi” model fałszywymi danymi lub wykorzystuje go do tworzenia propagandy.

Koniec strachu przed hakerami?

Raport przynosi też zaskakujące dane dotyczące innych cyberzagrożeń. Wyraźnie spada niepokój związany z hakerstwem i kradzieżą danych (z 38 proc. w 2024 r. do 29 proc. obecnie). Może to sugerować, że przywykliśmy do cyfrowego ryzyka lub wierzymy w lepsze zabezpieczenia. Na szarym końcu listy obaw znajduje się wpływ AI na środowisko naturalne – ten aspekt martwi zaledwie 9 proc. Polaków.

Barbara Krug, prezeska Zymetrii, podsumowuje, że nie boimy się już AI jako konkurenta, który zabierze nam pracę, ale utraty kontroli nad prawdą w internecie. To ważny sygnał dla twórców technologii i regulatorów: kluczem do dalszej adopcji AI nie jest już przekonywanie o jej użyteczności, ale budowanie mechanizmów chroniących przed falą cyfrowego kłamstwa.

#aiSi #dezinformacja #fakeNews #news #raportAiBarometr #spoleczenstwo #sztucznaInteligencja #zymetria

Black Friday 2025: Polacy stawiają na BLIKA i wsparcie AI. Raport o naszych nawykach

Tegoroczny Black Friday to nie tylko polowanie na okazje, ale przede wszystkim test nowoczesnych technologii w handlu.

Z najnowszego raportu DXC Technology wynika, że aż 76 proc. Polaków planuje aktywnie korzystać z listopadowych promocji. Zmienia się jednak sposób, w jaki kupujemy: portfele fizyczne odchodzą do lamusa na rzecz BLIKA, a w poszukiwaniu najlepszych ofert coraz częściej wyręcza nas sztuczna inteligencja.

Król jest jeden: BLIK deklasuje karty

Najciekawszym wnioskiem płynącym z badania jest absolutna dominacja polskiego systemu płatności. BLIK został wskazany jako metoda pierwszego wyboru przez aż 63 proc. kupujących online. Dla porównania, tradycyjne karty płatnicze wybiera 32 proc. ankietowanych, a portfele cyfrowe (takie jak Apple Pay czy Google Pay) – 25 proc..

Popularność BLIKA jest szczególnie widoczna w młodszych grupach wiekowych. Wśród przedstawicieli pokolenia Z (osoby w wieku 18-30 lat) wybiera go aż 71 proc. konsumentów. Eksperci tłumaczą ten fenomen połączeniem wygody z poczuciem bezpieczeństwa – kod jest ważny tylko przez dwie minuty i wymaga potwierdzenia w aplikacji bankowej, co daje użytkownikom poczucie pełnej kontroli nad wydatkami w gorącym okresie wyprzedaży.

Strach przed oszustami i rola AI

Entuzjazm zakupowy studzą nieco obawy o bezpieczeństwo. Aż 72 proc. respondentów wyraża zaniepokojenie bezpieczeństwem transakcji online. Nie jest to strach bezpodstawny – 22 proc. badanych przyznaje, że padło ofiarą oszustwa w sieci, a w przypadku 7 proc. zdarzyło się to wielokrotnie.

Odpowiedzią na te zagrożenia ma być sztuczna inteligencja. Według raportu DXC, już 60 proc. Polaków korzysta z narzędzi AI. Co więcej, 36 proc. konsumentów deklaruje gotowość do powierzenia „agentowi AI” wsparcia podczas Black Friday. Czego oczekujemy od algorytmów?

  • 20 proc. liczy na oszczędność czasu przy selekcji produktów.
  • 15 proc. traktuje AI jako tarczę pomagającą unikać fałszywych ofert.
  • 13 proc. szuka lepszego dopasowania ofert do swoich potrzeb.

Pokoleniowa zmiana warty

Raport wyraźnie zarysowuje różnice demograficzne. Najbardziej aktywni w e-commerce są przedstawiciele pokoleń X i Y – jedna trzecia Polaków kupuje w sieci co najmniej raz w tygodniu. Seniorzy (Baby Boomers) podchodzą do cyfrowych nowinek z większym dystansem – w tej grupie najmniejszy jest odsetek osób korzystających z promocji Black Friday oraz ufających nowym metodom płatności, choć bankowość elektroniczna cieszy się zaufaniem aż 78 proc. ogółu społeczeństwa.

BLIK znowu rośnie. Prawie 20 milionów Polaków i 744 miliony transakcji w kwartał

#aiSi #bezpieczenstwoWSieci #blackFriday #blik #eCommerce #news #raportDxc #sztucznaInteligencja #zakupyOnline

Anthropic prezentuje Claude Opus 4.5. Nowy król kodowania jest tańszy i ma lepszą pamięć

Anthropic nie zwalnia tempa i oficjalnie wprowadza na rynek swój nowy flagowy model – Claude Opus 4.5.

Aktualizacja przynosi znaczący skok wydajności, zwłaszcza w zadaniach programistycznych, a także rozwiązuje jeden z największych problemów użytkowych poprzednich wersji. Co istotne dla deweloperów, nowy model jest znacznie tańszy w eksploatacji niż jego poprzednik.

Koniec z „uciętymi” rozmowami

Dla przeciętnego użytkownika korzystającego z aplikacji Claude (web, mobile, desktop), najważniejszą zmianą jest nowy sposób zarządzania pamięcią konwersacji. Dotychczas, po przekroczeniu limitu okna kontekstowego (200 000 tokenów), Claude po prostu ucinał rozmowę, uniemożliwiając jej kontynuowanie. Było to frustrujące, zwłaszcza w długich sesjach roboczych.

Wraz z premierą Opus 4.5 (zmiana ta dotyczy wszystkich modeli w aplikacjach), Anthropic wprowadza mechanizm inteligentnego podsumowywania. Gdy rozmowa zbliża się do limitu, system „w tle” skróci starsze wątki, zachowując kluczowe informacje, a odrzucając zbędne detale. Dzięki temu konwersacja może trwać znacznie dłużej bez utraty spójności.

Lepszy od GPT-5.1 i Gemini 3

Opus 4.5 to pierwszy model, który przekroczył barierę 80 proc. dokładności w prestiżowym benchmarku programistycznym SWE-bench Verified, osiągając wynik 80,9 proc. Tym samym zdetronizował on niedawno wydane modele konkurencji: GPT-5.1-Codex-Max od OpenAI (77,9 proc.) oraz Gemini 3 Pro od Google (76,2 proc.). Choć Claude nadal ustępuje rywalom w rozumowaniu wizualnym, w zadaniach związanych z kodowaniem i używaniem narzędzi (agentic tool use) wysuwa się na prowadzenie.

Niższe ceny i nowości dla deweloperów

Anthropic zdecydował się na agresywną politykę cenową. Dostęp do API Opus 4.5 kosztuje teraz 5 dolarów za milion tokenów wejściowych i 25 dolarów za wyjściowe. To drastyczna obniżka względem poprzednika, który kosztował odpowiednio 15 i 75 dolarów.

Dodatkowo, środowisko Claude Code, wcześniej dostępne głównie przez linię komend, trafiło natywnie do aplikacji desktopowych. Nowy interfejs pozwala na wygodne przełączanie się między tradycyjnym czatem a środowiskiem programistycznym w kartach. Deweloperzy otrzymali też nowy parametr „effort”, pozwalający precyzyjnie balansować między dokładnością modelu a zużyciem tokenów.

Sojusz tytanów AI. Microsoft, Nvidia i Anthropic wchodzą w układ za 30 mld dolarów. Koniec przewagi OpenAI?

#aiSi #anthropic #claude #gemini3 #gpt51 #news #opus45 #programowanie #sztucznaInteligencja