AI For The Skeptics: Pick Your Reasons To Be Excited
AI For The Skeptics: Pick Your Reasons To Be Excited
схоже що #gemma4 непогано справляється у спілкуванні, але використовувати її як асистент для кодінгу дуже важко.
Якщо ви змогли її заставити заглянути у файлову систему, і прочитати файл - підкажіть як ви це зробили.
---
проблема "узгодження" (alignment) та форматів токенів у нових моделях Google. Gemma 4 — це потужний інструмент, але її архітектура "Thinking" та система виклику функцій (Function Calling) працюють інакше, ніж у GLM4 чи Llama.
---
**Використовуйте **`qwen2.5-coder`** як альтернативу:** Якщо Gemma 4 продовжує "впиратися", спробуйте `qwen2.5-coder:7b`. Ця модель — "золотий стандарт" для MCP сьогодні. Вона бачить MCP-сервер Serena миттєво і не має комплексів щодо "безпеки" при читанні ваших власних логів чи нотаток.
**Висновок:** Gemma 4 — це "розумний професор", який дуже боїться порушити правила. Щоб вона працювала як "адмін", їй потрібен дуже жорсткий системний промпт і чітко налаштований формат передачі MCP-інструментів. Якщо ви хочете автоматизацію "в один клік", спробуйте Qwen, але якщо потрібна саме Gemma — підвищуйте температуру та використовуйте чіткі інструкції ролі в Agent Pi.
ボンカレー、これは艦長には伏せておいた方がいいかも……
Notchmeister 1.0.7 - MacBook Pro/Airの「ノッチ」に遊びゴコロを持たせて楽しむ https://macsoft.jp/notchmeister/
マイクロソフト、シグルドさんに詳しく教えてほしいです
Anthropic、世界的に重要なソフトウェアのセキュリティを守る「Project Glasswing」発表。AWS、Apple、Google、Linux財団など参画 https://www.publickey1.jp/blog/26/anthropicproject_glasswingawsapplegooglelinux.html
亜人だからといってStudio Display XDRに興味がないというわけではないんです
Apple Now Selling Parts for Seven New Devices Unveiled Last Month https://www.macrumors.com/2026/04/08/apple-selling-parts-for-seven-new-devices/
フェイさんはもうちょっと冷静にリリースのことを受け止めた方が……
Apple、「iOS 26.4.1」「iPadOS 26.4.1」をリリース https://www.applelinkage.com/2026/04/09/ios-26-4-1-and-ipados-26-4-1/
Alex Cheema (@alexocheema)
로컬 AI 성능을 나타내는 ‘Intelligence per Joule’ 지표가 16개월 만에 18배 향상됐다는 내용이다. 하니스, 추론 엔진, 모델, 하드웨어의 공동 설계가 로컬 AI 발전을 더욱 가속할 것이라고 강조하며, 휴대폰·맥북·미니PC 같은 기기에서의 AI 실행 가능성 확대를 시사한다.

Intelligence per Joule increased 18x in 16 months. This is THE metric to track for local AI progress (including phones, macbooks, mini pc’s). This will accelerate with co-design of harness x inference eng x models x hardware for local AI (@exolabs). The chart is from the
"Gemini 2 provided answers that were “ungrounded” 37% of the time, meaning [ the LLM ] cited websites that didn’t support the information it provided. But with Gemini 3, this jumped to 56%." So 'it is pulling facts out of thin air and ungrounded responses make it difficult for users to verify the claims.'
https://futurism.com/artificial-intelligence/google-ai-overviews-misinformation
What do you think, can the majority of humans be educated not to trust LLM per default?
Or should we rather expect that the majority of people will continue to prefer comfortability over accuracy?
I think, while it is useful to increase the amount of people who do not trust LLM at all, it is more useful to work with the worst case scenario and not waste hope and energy on a fictitious humanity.
Working with the worst case scenario provides different levers and different strategies.
Eg, hoping for a fictitious smart humanity would not consider eliminating LLM from everyday use by law.
That unfounded hope would follow the unsuccessful neoliberal philosophy of leaving smartening up to the consumer.
Worst case scenario would draw the story arch into the near future: how much faster supply chains and civilisation collapse because LLM users get misinformed about national political trajectories around climate action and climate-impacts-cushioning social politics.
#LLM #Artificialintelligence

Ok y'all...weirdness ahead.
Thinkers for as long as we have thunk, have considered that we live in a dream state. Plato, Zhuangzi, Descartes had their caves and butterflies and demons, but philosopher Nick Bostrom updated it to the computer age, suggesting that *waves hands around* all of this is computer simulation.
Here's where I leave the known, and don my tinfoil propeller beanie.
You know how LLM companies have devoured all the available ram and compute power they can lay their hands on, right? And they're sucking power down like midsized cities for each data center.
And the timeline started getting weirder and weirder the more data centers that went online.
Y'all, I posit that LLM is destroying the universe. It's using all the compute and power that should be fueling the normal functions of the simulation.
I'm just sayin, what if we turned them all off for a few months, just to see if normal happened?