[Перевод] Долг понимания — скрытая цена кода, сгенерированного искусственным интеллектом

“Долг понимания” (comprehension debt) — это скрытая цена, которую человеческий интеллект и память платят в результате чрезмерной зависимости от ИИ и автоматизации. Для инженеров это особенно актуально в сфере разработки агентных систем. Когда команды активно используют инструменты для генерации кода с помощью ИИ, возникают определенные издержки, которые не отражаются в показателях производительности. Особенно это касается случаев, когда проверка всего кода, генерируемого ИИ, становится утомительной. Эти издержки накапливаются постепенно, и в конечном итоге их приходится оплачивать — с процентами. Это называется “долг понимания” или “когнитивный долг” .

https://habr.com/ru/articles/1016680/

#code_quality #ai #artificial_intelligence #technical_debt #сomprehension_debt #качество_кода #ии #искусственный_интеллект #технический_долг #долг_понимания

Долг понимания — скрытая цена кода, сгенерированного искусственным интеллектом

“Долг понимания” (comprehension debt) — это скрытая цена, которую человеческий интеллект и память платят в результате чрезмерной зависимости от ИИ и автоматизации. Для инженеров это особенно актуально...

Хабр

The current-day craze for "generative #AI", i.e. non-intelligent #artificial_intelligence, must surely be a direct outgrowth of the foiling of the earlier #tech sector obsession with "the blockchain". Both #crypto scams and #LLM scams require much the same thing from the entrepreneurs hoping to cash in: they want to bum or steal enough money to buy or rent some property, stuff it full of computer hardware being run to exhaustion, and collect vast quantities of profit thereby.

What's more, the ill-gotten gains of cryptocurrency gambling and scamming could now be laundered into another, far more exciting-seeming "innovation". Blockchain speculation was now in a bad public odor, but the "wealth creation" via blockchain speculation could now be funnelled into something far more readily hyped and sold to the public as a miracle of high technology. Jensen Huang could breathe a sigh of relief, now that there was another and shinier reason for tech grifters to buy up vast quantities of #Nvidia hardware.

Anyway, after I finally got booted from Caltech (quite deservedly I assure you, even if the process was hastened by mostly terrible teaching and a hideously toxic student culture) I took up #programming in earnest with the help of SDSU because I was wretched at autodidactism (self-teaching) and thus welcomed being forced along by a definite curriculum and class schedule. In earlier years I'd worked with BASIC and Pascal, but now I was put onto C and C++ mostly, ornamented by Common Lisp and Java, and I got my first exposure to "object orientation", at least of the Java / C++ sort. (I made very little use of the CLOS in Lisp; I don't recall that it ever felt necessary for the exercises in #artificial_intelligence which I did at SDSU.)

I'm struggling to remember what I was taught about #OOP. I recall at least that it was very heavily sold, and when I finally got work as a programmer, I was frequently dealing with "objects". Heck I worked for a time at a San Diego firm that sold an implementation of CORBA, an "object request broker" that permits calling methods on remote or distributed objects. Does CORBA get used for anything these days? I haven't heard the name in years and years.

[4/???]

Испанский в кармане: Архитектура Telegram-бота с локальным Whisper.cpp, AI-диалогами и оценкой произношения

Привет, Хабр! Меня зовут Vlad, я начинающий Python‑разработчик и энтузиаст изучения языков. Недавно я столкнулся с классической проблемой полиглота‑самоучки: учебники дают теорию, аудиокурсы — пассивное восприятие, но нет главного — обратной связи по произношению. Репетиторы дороги, а разговорные клубы требуют уровня, которого у меня еще не было. Я решил закрыть эту боль кодом. Моя цель была амбициозной: создать Telegram‑бота, который: 1. Слушает голосовые сообщения и распознает речь без дорогих облачных API. 2. Оценивает точность произношения в процентах, сравнивая с эталоном. 3. Поддерживает живой диалог через LLM, исправляя ошибки на лету. 4. Работает быстро и экономно на слабом VPS. В этой статье я подробно разберу архитектуру проекта, покажу, как интегрировать бинарный whisper.cpp в асинхронный aiogram 3.x, реализую алгоритм оценки речи и расскажу про управление состояниями (FSM). Под капотом — Python, нейросети и немного магии.

https://habr.com/ru/articles/1014888/

#Python #Telegram_Bot #Aiogram #Whisper #Speech_Recognition #Machine_Learning #NLP #Artificial_Intelligence #Асинхронность #Испанский_язык

Испанский в кармане: Архитектура Telegram-бота с локальным Whisper.cpp, AI-диалогами и оценкой произношения

Привет, Хабр! Меня зовут Vlad, я начинающий Python-разработчик и энтузиаст изучения языков. Недавно я столкнулся с классической проблемой полиглота-самоучки: учебники дают теорию, аудиокурсы —...

Хабр
Meta Glasses Withheld From EU Over Battery Rules, Supply Snags

Meta Platforms Inc.’s rollout of new display-equipped Ray-Ban smart glasses in the European Union has been hampered by battery and artificial intelligence regulations in addition to supply constraints.

Bloomberg.com

Stable Diffusion XL: так ли сложно использовать локальную модель?

Когда звучит фраза «нарисовать картинку нейросетью», под этим обычно подразумевается отправка запроса в какой-нибудь условно-бесплатный сервис вроде Nano Banana или ChatGPT. Еще можно заплатить за подписку на Midjourney и смириться с тем, что твои промпты видит вся дискорд-галерея. Есть, конечно, и еще один путь — поднять открытую модель вроде Stable Diffusion на собственном компьютере, однако для большинства пользователей он всё ещё ощущается как «очень сложно» или «очень дорого». Книга, о которой мы хотим сегодня рассказать, решает как минимум первую проблему. И как же именно?

https://habr.com/ru/companies/bhv_publishing/articles/1014232/

#ИИ #AI #ml #artificial_intelligence #stablediffusion #stable_diffusion #stable_diffusion_нейросеть #нейронные_сети #нейросети #генерация_изображений

Stable Diffusion XL: так ли сложно использовать локальную модель?

Когда звучит фраза «нарисовать картинку нейросетью», под этим обычно подразумевается отправка запроса в какой-нибудь условно-бесплатный сервис вроде Nano Banana или ChatGPT. Еще можно заплатить за...

Хабр
OpenCode Enterprise: Implementación para Platform Engineering #artificial_intelligence #unix___*bsd___gnu_linux
https://red-orbita.com/opencode-enterprise-implementacion-para-platform-engineering/
OpenCode Enterprise: Implementación para Platform Engineering – Red-Orbita

Not all the SDSU CompSci classes were completely valueless, I will admit, and at least being in that degree program allowed me to meet sci-fi writer (now departed) Vernor Vinge, who signed my copy of A Fire upon the Deep (which I eventually lost somewhere between moves). I took elective classes in #artificial_intelligence and learned some Common Lisp. But most of what I remember of the #compsci curriculum at SDSU in the 1990s was rather faddish, and I expect that's typical of most such curricula. I wasn't getting a well-structured and rigorous academic discipline; I was getting a collection of vocational exercises, learning how to use #programming tools that happened to be popular at the time. So I ended up doing a lot of C++ homework, and in my last term (when I hurriedly took a bunch of CS classes I'd been putting off because I was putting far more effort into my Classics curriculum) I had to do #Java homework, for a required "object-oriented programming" class.

Ah, #OOP. The very acronym suggests a blunder.

Графы знаний в юридическом домене: как не потерять сложность при построении RAG-системы

Ни одна современная AI-система в юридическом домене не обходится без RAG: юридические данные слишком специфичны, слишком изменчивы и никогда слишком редко составляли значимую часть обучающей выборки LLM, чтобы доверять ей без внешней базы знаний. Обычно при построении RAG-системы используют модуль поиска, основанный на векторных БД. Однако в таких сложно организованных областях знаний, как юридическая, архитектура, основанная на поиске в хранилище "плоских" эмбеддингов, может не справиться. Векторный поиск позволяет находить семантически близкие (схожие) фрагменты текстов, тогда как юридический домен также требует понимания многочисленных связей между сущностями , рассеянными по множеству документов . Кажется, что область знаний, организованная таким образом, идеально может быть представлена в виде графа знаний, особенно после появления современных инструментов, позволяющих автоматически строить такие графы на тысячах документов и использовать их в качестве хранилища знаний для RAG-систем. Однако все имеет свою цену: неполнота или неточность построенного графа может свести на нет все вложенные ресурсы и оставить вас с системой, которая хуже "наивного" векторного поиска. Какие преимущества поиска по графу знаний по сравнению с классическим векторным поиском, а также каковы критерии, когда использование графового поиска действительно необходимо для построения RAG-системы в юридическом домене?

https://habr.com/ru/articles/1012556/

#RAG #retrievalaugmented_generation #ai #artificial_intelligence #llm #large_language_models #vector_database #graph_database #knowledge_graphs #graphrag

Графы знаний в юридическом домене: как не потерять сложность при построении RAG-системы

Графы знаний в RAG-системах - будущее интеллектуального поиска Ни одна современная AI‑система в юридическом домене сегодня не обходится без Retrieval Augmented Generation (RAG): она...

Хабр

In my book, AGI only carries one meaning.

#artificial_intelligence