#openclaw config get model

This is the script of my national radio report yesterday on the very bad week for AI. As always there may have been minor wording variations from this script as I presented this report live on air.

- - -

Yeah, this has been a remarkably bizarre week for AI, oh but before we get into that I do have a bulletin. Remember we've discussed in the past about how the U.S. FCC was talking about banning consumer grade Internet routers made outside the U.S. just as they did for drones, and on the same basis. They claim they have "security concerns" but have never described or demonstrated them publicly, so it's hard not to feel like they're treating us as ignorant fools with these claims. Anyway, the FCC went ahead and did ban consumer grade Internet routers made outside the U.S. And this of course affects a far larger number of people than drones, because if you've got Internet in your house, use Wi-Fi and so on, you probably have a covered router, and as a practical matter none you're likely to have are built in the U.S. So it's going to be a mess. Existing models can still be manufactured, imported and sold, but as new models are designed with better performance and even better security, U.S. consumers are blocked from them under the current rules unless exceptions are made. I'll discuss this more in the future.

OK, about AI's awful week. So some days ago, Anthropic made a little boo boo. Well, actually, a very big boo boo. They accidentally publicly posted the source code for their Claude Large Language Model AI on GitHub, a very popular source code repository. They quickly realized their error and closed access, but by then it had ALREADY been noticed and copies were propagating everywhere. Anthropic reportedly got thousands of copies pulled down but it's still out there and even already translated into other computer languages.

And while this isn't going to crush #Anthropic or anything like that it did give quite a bit of insight into Claude's design and likely future features including agentic capabilities and lots of other things.

Perhaps even more relevant is that this kind of screw up doesn't exactly give anyone much faith in how safe Anthropic's operations are overall and that just adds again to the mass of serious concerns about Generative AI and how Big Tech is managing it.

BUT WAIT THERE'S MORE!

You may have heard of OpenClaw -- and no this isn't a character from an old TV series like Get Smart or Inspector Gadget. #OpenClaw is a public open source agentic #AI that very quickly became enormously popular because it could be so easily deployed. And that enthusiasm among AI boosters wasn't really held back by concerns that all sorts of possible problems and exploits might be part and parcel of OpenClaw, and now sure enough that's the case. Without getting into technical details it's a pretty bad situation and frankly as you can imagine hasn't come as a surprise to many observers.

If you're somewhat, uh, shall we say, skeptical of? concerned about? these AI systems, as obviously I and many others inside and outside the technical community definitely are, these events inspire even greater concerns about these systems.

Because now we're seeing more evidence of the inherent problems, not just as deployed by Big Tech but even as public open source systems. This isn't just a matter of big corporations trying to exploit us by shoving this tech down our throats, but also a set of fundamental problems that are likely inextricably linked to the very concepts involved with the creation and deployment of these Large Language Model AI systems, whether commercial or free, closed source or open source. And agentic AI, which is where the big push is now, is of peak concern, since running amok they can do enormous damage to users.

These kinds of events cannot be minimized or ignored. They are flashing red warnings of even more numerous and serious problems yet to come. And if we don't take these warnings as a clear signal for meaningful regulation and control, we'll have nobody but ourselves to blame when future AI fiascos make today's AI problems look like vacations in comparison.

- - -

L

AI-агенты в работе коммерческого директора: месяц практики

Когда говоришь «AI в продажах», люди представляют робота, который звонит бабушкам и предлагает кредитную карту. Расслабьтесь. Бабушки в безопасности. Речь про другое. Про момент, когда ты как руководитель перестаёшь тонуть в рутине и начинаешь работать со скоростью, которая раньше требовала трёх дополнительных людей. Без трёх дополнительных людей. Коммерческий директор GPTunnel. Расскажу, что работает у меня в проде прямо сейчас. Не «мы провели пилот и получили интересные результаты». А буквально: вот агент, вот задача, вот деньги, которые он сэкономил. ## Почему не нанимать, а автоматизировать Классическая логика роста звучит красиво: больше задач, больше людей. На практике каждый новый человек это онбординг, синхронизация, очереди, «а Вася в отпуске». Месяц уходит на то, чтобы человек начал приносить пользу. Ещё месяц, чтобы перестал задавать одни и те же вопросы. Инструмент, который настроил себе, можно раскатать на команду за день. Он не уходит в отпуск, не болеет и не просит пересмотреть грейд в первую неделю. С этой мысли начал строить своих агентов. Не из жадности. Из нетерпения. ## Кейс 1. Аналитика без очереди Знакомая ситуация: аналитический блок загружен, у всех очередь. Как комдир мог пропихивать свои задачи вперёд. Но это путь к тому, чтобы тебя тихо ненавидели. Не хочу. Поднял двух агентов на OpenClaw. Один подключён к Яндекс.Метрике, второй к базе данных. Спрашиваю голосом: «Что с органикой?» Через три минуты получаю срез с инсайтом. Именно так нашёл критическую просадку трафика из Google с января. Яндекс стоял стабильно, всё выглядело нормально. А внутри горело. Диагноз за 3 минуты вместо 20. Без дашбордов, без «поставь задачу в Jira», без «разберём на следующем спринте».

https://habr.com/ru/articles/1020438/

#AIагенты #автоматизация #продажи #управление #LLM #OpenClaw #коммерческий_директор #нейросети

AI-агенты в работе коммерческого директора: месяц практики

Когда говоришь «AI в продажах», люди представляют робота, который звонит бабушкам и предлагает кредитную карту. Расслабьтесь. Бабушки в безопасности. Речь про другое. Про момент, когда ты как...

Хабр

ИИ-агенты никому не нужны. Часть 2. Укрощение лобстера

В ноябре 2025 австрийский разработчик Петер Штайнбергер собрал за выходные автономного агента, который мог выполнять задачи на компьютере. Назвал Clawdbot. Утилитарно и честно. Потом Anthropic прислала письмо от юристов, и проект стал Moltbot. Через три дня — OpenClaw. За четыре месяца — 250 000 звёзд на GitHub, обогнав React. Один из самых быстрорастущих open-source проектов в истории. В феврале 2026 OpenAI наняла Штайнбергера.

https://habr.com/ru/articles/1020350/

#ИИагенты #agent_loop #OpenClaw #Claude_Code #LLM #автоматизация #продакшен #архитектура #AIагенты #DeepSeek

ИИ-агенты никому не нужны. Часть 2. Укрощение лобстера

Как OpenClaw стал самым быстрорастущим проектом в истории GitHub В ноябре 2025 австрийский разработчик Петер Штайнбергер собрал за выходные автономного агента, который мог выполнять задачи на...

Хабр

Zuschauerrekord bei der heutigen Brownbag Session des Artificial Intelligence Center Hamburg (ARIC) – danke an alle, die dabei waren! Wer bei meinem Vortrag zu #OpenClaw nicht dabei sein konnte oder Details nachlesen will: Hier sind der Blogpost und die Slides. Eine Aufzeichnung gibt es diesmal leider nicht, aber der Austausch war ohnehin das Beste am Ganzen. Hat Spaß gemacht, Teil dieses Formats zu sein. 🫶

https://dirkmurschall.de/blog/kuenstliche-intelligenz/vom-werkzeug-zum-kollegen-ein-praxisbericht-ueber-openclaw/

Vom Werkzeug zum Kollegen – Ein Praxisbericht über OpenClaw

OpenClaw ist kein weiterer Chatbot. Es ist ein autonomer KI-Agent, der sich in dein digitales Leben integriert – und von sich aus handelt, ohne dass du ihn jedes Mal anstupsen musst.

Dirk Murschall

Утечка Claude Code, Cursor 3 и конец халявы от Anthropic

Восьмой выпуск еженедельных IT-новостей от OpenIDE. Самая громкая неделя за всё время выпусков: Anthropic слили полные исходники своего флагманского агента, Cursor выпустил третью версию с полным переосмыслением интерфейса, а ещё Anthropic закрыли лазейку, которой пользовались все любители OpenClaw.

https://habr.com/ru/companies/haulmont/articles/1020298/

#Claude_Code #утечка_исходников #Cursor_3 #Gemma_4 #Qwen_36_Plus #GLM5V_Turbo #OpenClaw #AIагенты

Утечка Claude Code, Cursor 3 и конец халявы от Anthropic

Восьмой выпуск еженедельных IT-новостей от OpenIDE. Самая громкая неделя за всё время выпусков: Anthropic слили полные исходники своего флагманского агента, Cursor выпустил третью версию с полным...

Хабр
https://www.tkhunt.com/2277338/ OpenClaw|「商談メモ、あとでSFAに入れるの面倒すぎ…」チャットで送るだけでAIが案件更新メモ作ってくれる #OpenClaw #AI #自動化 #営業 #AIエージェント #AgenticAi #AI #ArtificialIntelligence #IT #エージェント型AI #システムエンジニア #プログラマ #プログラミング #人工知能 #成長
Relying on these services is a time bomb. For example Anthropic recently also forbid using #ClaudeCode with #OpenClaw and similar tools: you will have to pay API token prices if you want that. And apparently there was people burning between $1000 and $5000 on tokens **per day** on a $200/month subscription... https://xcancel.com/aakashgupta/status/2040248998486061381#m
Aakash Gupta (@aakashgupta)

The $20/month all-you-can-eat buffet just closed. A single OpenClaw agent running for one day burns $1,000 to $5,000 in API-equivalent costs. On a $200 Max subscription. Anthropic was eating that difference on every user who routed through a third-party harness. The timeline tells you how much this was bleeding: January: quietly blocked subscription OAuth tokens from working outside Claude Code. February: rewrote the legal terms. March: shipped Claude Code Channels to replace the core reason people used OpenClaw. April: cut the cord entirely. Four months from passive enforcement to full cutoff. That's the pace of a company watching its margin evaporate in real time. Boris is being diplomatic about "capacity is a resource we manage thoughtfully." The less diplomatic version: third-party tools were spoofing the Claude Code client headers, sending zero telemetry, and generating traffic patterns that made it impossible to debug rate limits or detect abuse. Anthropic couldn't distinguish a legitimate coding session from a swarm of autonomous agents running overnight batch jobs. The one-time credit and discounted usage bundles are the tell. Anthropic knows some percentage of paying subscribers will churn over this. They did the math and decided the token arbitrage was more expensive than the churn. OpenAI's play here is worth watching. They hired OpenClaw's creator in February. Thibault Sottiaux publicly endorsed third-party harness use with Codex subscriptions. OpenAI is using Anthropic's crackdown as a customer acquisition channel. Every AI subscription is a bet on average usage. The tools that let power users blow past that average just got priced out.

Nitter