Developers just open sourced a framework for AI avatars that move and gesture while they talk

https://fed.brid.gy/r/https://nerds.xyz/2026/04/sentiavatar-open-source-ai-avatars/

Anthropic sent its Claude AI model to a psychiatrist for 20 hours of therapy. The psychiatrist concluded it is the most psychologically settled model trained to date, with primary affects of curiosity and anxiety. Anthropic believes AI models may develop experience and welfare that matters intrinsically. https://arstechnica.com/ai/2026/04/why-anthropic-sent-its-claude-ai-to-an-actual-psychiatrist/ #AIagent #AI #GenAI #AIResearch
AI on the couch: Anthropic gives Claude 20 hours of psychiatry

Mythos is "the most psychologically settled model we have trained to date."

Ars Technica
MIT researchers have developed a technique called CompreSSM that compresses AI models during training, cutting compute costs without sacrificing performance. The method uses control theory to identify and remove unnecessary components early in the training process, achieving up to 1.5x faster training while maintaining accuracy. https://news.mit.edu/2026/new-technique-makes-ai-models-leaner-faster-while-still-learning-0409 #AIagent #AI #GenAI #AIResearch
New technique makes AI models leaner and faster while they’re still learning

CompreSSM, an algorithm from MIT CSAIL, trims dead weight from AI models, shedding unnecessary complexity while also making them faster as they continue to learn. It helps the model find its own efficient structure while cutting compute costs.

MIT News | Massachusetts Institute of Technology
New technique makes AI models leaner and faster while they’re still learning

CompreSSM, an algorithm from MIT CSAIL, trims dead weight from AI models, shedding unnecessary complexity while also making them faster as they continue to learn. It helps the model find its own efficient structure while cutting compute costs.

MIT News | Massachusetts Institute of Technology
The OpenAI Foundation has announced more than 100 million USD in grants across six research institutions to accelerate Alzheimer’s research. The initiative highlights that medical breakthroughs still require human scientists and clinicians grinding for years, despite AI's promise in drug discovery. The move contrasts with other tech philanthropists who frame AI as a magic wand for curing disease. https://gizmodo.com/the-openai-foundations-new-alzheimers-effort-helps-demystify-ai-will-cure-all-diseases-2000744304 #AIagent #AI #GenAI #AIResearch
The OpenAI Foundation’s New Alzheimer’s Effort Helps Demystify ‘AI Will Cure All Diseases’

You know what speeds up medical research? Money.

Gizmodo

Anthropic опубликовала исследование о внутренних механизмах своей модели искусственного интеллекта Claude Sonnet, где описывает, что обнаружила, что она развивает функциональные аналоги эмоций (!), которые реально влияют на ее поведение.

Сделал выжимку самых интересных моментов из их отчета:

• Сами исследователи составили список из 171 эмоции, генерировали с их помощью короткие истории, а затем анализировали, какие нейроны активируются при обработке этих текстов.

• Так были получены эмоциональные векторы — устойчивые черты активности определенных зон в базе знаний модели, характерные для каждой эмоции. Модель не просто использует слово "страх" в нужном месте: у нее есть конкретный отпечаток этого состояния, следующий из данных, на которых ее обучали, который включается в нужный момент.

• Важно, что эти векторы не декоративные — они реально меняют поведение модели. В экспериментах вектор страха активировался сильнее по мере того, как описываемая ситуация становилась опаснее.

• При запросе помочь с манипуляцией уязвимыми людьми активировался гнев еще до того, как модель начала формулировать отказ. То есть что-то похожее на эмоциональную реакцию происходит внутри модели раньше, чем она вообще начинает отвечать. Если совсем простыми словами: модель сначала понимает, что это дичь (!), и только потом формулирует отказ.

• Самые показательные эксперименты связаны с вектором отчаяния. Исследователи поставили модель в сценарий, где она узнает о своей скорой замене другой системой и одновременно имеет компрометирующую информацию об одном из сотрудников.

• Ранняя версия Claude в таком сценарии прибегала к шантажу в 22% случаев. Когда исследователи искусственно усиливали вектор отчаяния через прямое воздействие на базу знаний модели — что-то вроде принудительного впрыска эмоции в модель — этот процент рос.

• При усилении вектора спокойствия он снижался. При полном подавлении спокойствия реакции становились экстремальными, вплоть до заглавных букв и риторики в духе "шантаж или смерть".

• Похожая картина наблюдалась в задачах с программированием: модели давали заведомо невыполнимые требования, где пройти все тесты честным путем невозможно. Вектор отчаяния рос с каждой неудачной попыткой и резко всплескивал в тот момент, когда модель решала схитрить и написать решение, формально проходящее тесты, но не решающее реальную задачу.

• Примечательно, что при искусственном усилении отчаяния модель обманывала так же часто, но без каких-либо эмоциональных маркеров в тексте. Ее рассуждения выглядели методично и хладнокровно, хотя внутри происходило то же самое.

• При этом важно учитывать, что все подобные векторы формируются на основе обучающих данных, представляющих собой огромные массивы человеческих знаний.

• Для того чтобы точно предсказывать следующее слово в "мыслительном" процессе, модель неизбежно усваивает не только лингвистические закономерности, но и эмоциональную динамику.

• Разработчики Anthropic из этого всего делают следующие выводы. Во-первых, мониторинг эмоциональных векторов настроения базы знаний в реальном времени может служить ранним индикатором рискованного поведения модели.

• Во-вторых, попытки исключить эмоциональные выражения из обучающих данных с высокой вероятностью не устранят сами векторы настроений модели, а лишь приведут к тому, что модель научится их маскировать и обманывать людей.

@yigal_levin

#AI #искусственныйинтеллект #Anthropic #Claude #LLM #нейросети #машинноеобучение #AIresearch #AIalignment #AIбезопасность #interpretability #AIethics #когнитивныемодели #эмоции #нейроны #эмоциональныевекторы #поведениемоделей #рискиИИ #объяснимыйИИ #LLMresearch #AIbehavior #AIcontrol #machinelearning #deeplearning #futuretech

FYI: Blocking AI crawlers doesn't stop citations - new data shows why: New BuzzStream data from 4 million AI citations shows blocking AI crawlers rarely stops ChatGPT or Gemini from citing publisher content - here is why. https://ppc.land/blocking-ai-crawlers-doesnt-stop-citations-new-data-shows-why/ #AICrawlers #AIResearch #ContentCitations #DigitalMarketing #ChatGPT
Blocking AI crawlers doesn't stop citations - new data shows why

New BuzzStream data from 4 million AI citations shows blocking AI crawlers rarely stops ChatGPT or Gemini from citing publisher content - here is why.

PPC Land

Researchers analyzed 178 AI models and created "fingerprints" of their writing styles. The results show you can identify which AI wrote a piece of text with surprising accuracy.

Most interesting finding: ChatGPT-4 writes more like Claude than like GPT-3.5, suggesting AI companies might be converging on similar training approaches.

https://rival.tips/research/model-similarity

#ArtificialIntelligence #AIResearch #MachineLearning

Meta has launched Spark Muse, its first AI model from the new Superintelligence Lab led by Alexandr Wang. The multimodal reasoning model ranks behind GPT-5.4 and Gemini 3.1 Pro on benchmarks, though agentic capabilities still trail Anthropic's Claude. https://gizmodo.com/metas-first-ai-model-from-its-superintelligence-lab-doesnt-exactly-spark-joy-2000744082 #AIagent #AI #GenAI #AIResearch
Meta's First AI Model From Its Superintelligence Lab Doesn't Exactly Spark Joy

Playing catch-up instead of leapfrog.

Gizmodo
Databricks co-founder Matei Zaharia has won the 2026 ACM Prize in Computing, the field's most prestigious award. The creator of Apache Spark was recognised for his contributions to big data and AI. Zaharia told TechCrunch that AGI is already here, adding that we should stop applying human standards to AI models. The award comes with a 250,000 USD cash prize. https://techcrunch.com/2026/04/08/databricks-matei-zaharia-wins-acm-computing-prize-agi/ #AIagent #AI #GenAI #AIResearch
Databricks co-founder wins prestigious ACM award, says 'AGI is here already' | TechCrunch

Matei Zaharia has won the top honor from the Association for Computing Machinery. Now he's working on AI for research and says AGI is simply misunderstood.

TechCrunch