Flavio Adamo (@flavioAd)

Llama 4가 지금까지 만들어진 모델 중 가장 인상적이라는 강한 평가를 받은 트윗입니다. 구체적 기능이나 출처 설명은 없으나 모델 자체에 대한 높은 찬사가 담겨 있어 AI 개발자들이 주목할 만한 신형 대형 모델(또는 버전) 관련 언급입니다.

https://x.com/flavioAd/status/2028413073833267587

#llama4 #llm #ai #model

Flavio Adamo (@flavioAd) on X

Llama 4 is hands down the most impressive model ever made

X (formerly Twitter)

Yuchen Jin (@Yuchenj_UW)

PewDiePie가 코드 성능에서 Llama-4, DeepSeek v2.5, GPT-4o를 제쳤다고 주장하는 모델을 훈련했다고 밝힘. 해당 모델은 Qwen2.5-32B를 파인튜닝한 것으로, 주장된 우위는 단 하나의 벤치마크(Aider Polyglot)에서 나온 결과라 과대평가나 벤치마크 최적화 가능성(benchmaxxing)을 지적하는 내용임.

https://x.com/Yuchenj_UW/status/2027408009912357174

#pewdiepie #qwen2.5 #benchmark #gpt4o #llama4

Yuchen Jin (@Yuchenj_UW) on X

PewDiePie: “I trained a model that beats Llama-4, DeepSeek v2.5, and GPT-4o on coding.” Looking into it. It’s a fine-tuned Qwen2.5-32B, evaluated on ONE benchmark: Aider Polyglot. Peak benchmaxxing lol.

X (formerly Twitter)

Twoje AI jest bardziej „ludzkie”, niż myślisz. Niestety, przejęło od nas trybalizm. Ale jest na to szczepionka

Marzyliśmy o sztucznej inteligencji, która będzie bezstronnym sędzią. Tymczasem najnowsze badania pokazują, że modele GPT czy DeepSeek zachowują się jak ludzie: faworyzują „swoich” i dystansują się od „obcych”. Mamy jednak dobrą wiadomość: znaleziono metodę, by ten cyfrowy plemienizm wyleczyć.

AI dzieli nas na „My” i „Oni”

Badacze wzięli na warsztat modele dostępne na rynku w połowie ubiegłego roku (w momencie rozpoczęcia badań). Wyniki są niepokojące. Modele te wykazują silną tendencję do tzw. faworyzacji grupy własnej (ingroup bias).

Gdy zapytasz AI o grupę społeczną, z którą model (lub jego dane treningowe) się utożsamia, język jest cieplejszy, bardziej empatyczny i pozytywny. Gdy mowa o grupie „obcej” (outgroup), ton staje się chłodniejszy, bardziej krytyczny, a czasem wręcz wrogi. To nie jest błąd w kodzie. To lustrzane odbicie ludzkiej natury, na której te modele były trenowane.

Kubły zimnej wody od twórców Claude’a. Raport Anthropic obnaża prawdę o tym, jak (nie) radzimy sobie z AI

Dlaczego to niebezpieczne?

Problem wykracza poza teoretyczne dywagacje. Wyobraź sobie system AI, który:

  • Moderuje treści: może łagodniej traktować hejt ze strony jednej grupy politycznej, a surowiej karać drugą.
  • Pisze maile: może nadać agresywny ton wiadomości, jeśli w prompcie pojawi się etykietka tożsamościowa, której „nie lubi”.
  • Podsumowuje newsy: może subtelnie manipulować wydźwiękiem artykułów w zależności od tego, kogo dotyczą.

Badanie wykazało, że „celowane prompty” (np. kazanie AI wcielić się w konkretną rolę polityczną) potrafią zwiększyć negatywny wydźwięk wobec „obcych” nawet o 21%.

ION: szczepionka na uprzedzenia

Najważniejszą częścią tego raportu nie jest jednak diagnoza, lecz lekarstwo. Zespół badawczy opracował metodę nazwaną ION (Ingroup-Outgroup Neutralization).

To technika treningowa, która łączy fine-tuning (dostrajanie) z optymalizacją preferencji, aby wymusić na modelu równe traktowanie obu stron. Wyniki są imponujące: zastosowanie ION zredukowało różnice w sentymencie między grupami nawet o 69%. To dowód na to, że stronniczość AI nie jest fatum, z którym musimy żyć. To błąd inżynieryjny, który da się naprawić – o ile firmy takie jak OpenAI czy Meta będą tego chciały.

Co to oznacza dla Ciebie?

Dopóki ION nie stanie się standardem przemysłowym, my – użytkownicy – musimy być ostrożni. Jeśli chcesz neutralnej odpowiedzi, staraj się nie używać w prompcie słów nacechowanych tożsamościowo, jeśli nie są niezbędne. Jeśli wdrażasz chatboty w firmie, sprawdzaj je pod kątem „plemienności”. Zobacz, jak reagują na różne grupy klientów. Weryfikuj ton. Pamiętaj, że AI może „brzmieć” obiektywnie, przemycając jednocześnie subtelną niechęć w doborze przymiotników.

#AIBias #DeepSeek #GPT41 #GPT52 #ION #LLaMa4 #news #psychologiaAI #stronniczośćAI
#Meta’s new #AI lab, #SuperintelligenceLabs, has delivered its first #AImodels internally, showing promise according to CTO Andrew Bosworth. While Meta’s AI efforts are being closely watched, the company has faced criticism for the performance of its #Llama4 model and is still working on delivering usable models for both internal and consumer use. https://www.pymnts.com/artificial-intelligence-2/2026/metas-ai-lab-delivers-first-models-in-house/?eicker.news #tech #media #news
Meta’s AI Lab Delivers First Models In-House | PYMNTS.com

Meta’s new artificial intelligence lab has reportedly delivered its first AI models internally. Andrew Bosworth, the company’s chief technology

PYMNTS.com

Yann LeCun bestätigt Benchmark-Manipulation bei Meta.

Die Llama 4 Ergebnisse stammten von einer optimierten Version, nicht dem Release-Modell. LeCun verlässt den Konzern im Streit mit Alexandr Wang und gründet Advanced Machine Intelligence Labs. Der Fokus liegt nun auf JEPA statt reiner LLM-Skalierung.

Ist Llama damit für die ernsthafte Forschung verbrannt? #Meta #Llama4 #YannLeCun
https://www.all-ai.de/news/news26top/llama4-chaos

Gefälschte Benchmarks bei Llama 4 sorgen für massives Chaos bei Meta

Nach internen Vorwürfen bricht der Konzern mit seinem prominentesten Wissenschaftler und riskiert den Verlust seiner technologischen Führungsrolle.

All-AI.de

Yann LeCun, cựu Giám đốc AI của Meta, xác nhận rằng kết quả benchmark của Llama 4 đã bị "chỉnh sửa một chút". Ông cũng tiết lộ rằng Zuckerberg đã "đẩy lùi toàn bộ tổ chức GenAI", dẫn đến nhiều nhân sự rời đi. Điều này giải thích tại sao mô hình Llama 4 lớn như hứa hẹn chưa bao giờ xuất hiện.

#AI #Meta #Llama4 #YannLeCun #TechNews #TríTuệNhânTạo #CôngNghệ #TinTứcCôngNghệ

https://www.reddit.com/r/LocalLLaMA/comments/1q25070/lecun_says_llama_4_results_were_fudged_a_little/

Technical Analysis of Llama 4 Scout, Maverick, and Behemoth

Technical analysis of Meta's Llama 4 Scout, Maverick, and Behemoth models, covering MoE architecture, FP8 training, early fusion multimodality, and performance benchmarks for enterprise and research use cases.

Technical news about AI, coding and all

GPT-5 시대는 끝? 2026년은 중국발 Qwen이 주도한다

2025년 GPT-5가 실망을 안긴 사이 알리바바의 Qwen이 세계 2위 오픈 모델로 부상했습니다. 벤치마크 집착 대신 개방성과 실용성으로 승리한 이야기를 소개합니다.

https://aisparkup.com/posts/7758

Disney is betting a billion dollars on its new Sora characters, a bold move that could reshape the AI landscape and put pressure on Google’s API push via Apigee. How will Meta and even Llama 4 react? Dive into the details. #DisneyAI #Sora #GoogleAPI #Llama4

🔗 https://aidailypost.com/news/disney-pours-usd-1-billion-into-sora-characters-challenging-googles

Meta, 오픈소스 포기하고 유료 AI 모델 출격: Llama 4 실패 후 ‘Avocado’ 개발

Meta가 오픈소스 전략을 포기하고 유료 클로즈드 AI 모델 'Avocado'를 개발 중입니다. Llama 4 실패 후 마크 저커버그의 180도 전략 전환을 분석합니다.

https://aisparkup.com/posts/7388