🎧 Hörbücher selbst erstellen – mit hoerbuch!
Mein Open-Source-Tool konvertiert EPUB, DOCX, ODT und TXT zu OGG/MP3 – mit Kapitelmarkern, automatischem Modell-Download und ohne Cloud.
🎧 Hörbücher selbst erstellen – mit hoerbuch!
Mein Open-Source-Tool konvertiert EPUB, DOCX, ODT und TXT zu OGG/MP3 – mit Kapitelmarkern, automatischem Modell-Download und ohne Cloud.
I needed better and quicker access to information when sightseeing around London. I put together this page so I could listen to Wikipedia entries about a thing while looking at it. So now while I'm looking at the London Stone I can have the London Stone page read to me!
24/7 AI-powered radio station. Generates music, writes hosted breaks,speaks them
WRIT-FM은 24/7 AI가 운영하는 인터넷 라디오 방송국으로, AI가 음악을 생성하고, 5명의 AI 호스트가 8개의 쇼를 교대로 진행하며, Claude CLI가 대본을 작성하고 Kokoro TTS가 음성으로 변환한다. 음악 생성은 ACE-Step 기반 music-gen.server가 담당하며, Claude Code 운영 루프가 방송을 지속적으로 유지 관리한다. 방송은 Icecast 스트리밍 서버와 Cloudflared 터널을 통해 공개되며, 다양한 AI 기술과 자동화 스크립트로 완전 자동화된 음악 중심 라디오 경험을 제공한다.
StepFun (@StepFun_ai)
중국 TTS 모델 StepAudio 2.5가 Artificial Analysis Speech Arena에서 중국어 TTS 1위, 전 세계 Top 3를 기록했다는 내용입니다. 블라인드 테스트에서 사용자 평가도 좋았다고 강조하며, 음성 합성 모델의 성능 경쟁력을 보여주는 주목할 만한 성과입니다.
StepFun (@StepFun_ai)
StepAudio 2.5 TTS가 @ArtificialAnlys Speech Arena에서 중국 TTS 모델 중 1위, 전 세계 기준 Top 3를 기록했다고 밝힌 트윗입니다. 블라인드 테스트와 실제 청취 평가에서 높은 성과를 얻은 것으로, 음성 합성 모델의 성능 경쟁에서 주목할 만한 신제품 발표입니다.
Grok TTS vs. OpenAI
xAI의 최신 음성 모델 Grok TTS가 OpenAI의 gpt-realtime-2 음성 모델과 비교 평가에서 전반적으로 더 자연스러운 음성 품질과 우수한 TTS 성능을 보이며 우위를 점했다. 실시간 음성 에이전트 테스트에서는 두 모델이 비슷한 성능을 보였으나, xAI는 가격 면에서 훨씬 저렴해 예산 관리에 유리하다. OpenAI 모델은 토큰 기반 과금으로 짧고 빈번한 대화에 적합하며, xAI는 분 단위 고정 요금제로 긴 대화나 높은 통화량에 적합하다. OpenAI 생태계에 이미 속해 있다면 gpt-realtime-2도 충분히 좋은 선택이지만, 비용과 음성 다양성을 고려하면 xAI 모델을 추천한다.
Now that Piper TTS has made it to iOS and is relatively stable on newer devices, I'd like to create a Community hub of sorts, where people can upload voices they've created for it. To go along with this, I'd like to release some kind of training utility to make the process a little less scary for people who don't code regularly. Is this something you would be interested in?
My goal with this is to release more high-quality voices than what's currently available, many of the issues people see with Piper simply come down to the data used for training not being up to a professional standard. Honestly I think the main issue will be data collection, I have absolutely no interest in scraping from the web or using unlicensed data to train like many of these other open source TTS projects.
Когда «умная» колонка ведёт себя как табуретка: почему голосовые ИИ одновременно поражают и тупят
Голосовые ассистенты вроде Алисы давно перестали быть просто «озвученным поиском». Современная колонка — это гибрид из:
систем распознавания речи,
рекомендательных алгоритмов,
LLM-моделей,
пайплайнов синтеза голоса,
intent-routing,
контекстных менеджеров,
и огромного количества эвристик.
Именно поэтому пользователь регулярно сталкивается с парадоксом:
> Колонка способна философски ответить на экзистенциальный вопрос, но через минуту не может корректно включить нужную песню.
Со стороны это выглядит как «натуральная тупость». На практике — это последствия архитектуры современных conversational AI.
---
Иллюзия личности как продукт
Одним из главных отличий «Алисы» от ранних голосовых ассистентов стала намеренная попытка создать ощущение характера.
Ранние версии:
Siri,
Google Assistant,
Alexa
строились вокруг идеи «нейтрального помощника».
Яндекс пошёл другим путём:
сарказм,
эмоциональные ответы,
псевдофилософия,
мемная подача,
шутки,
реакция на грубость.
Это оказалось критически важным UX-решением.
Пользователь гораздо легче прощает ошибки системе, если воспринимает её не как интерфейс, а как «странного собеседника».
---
Почему колонка кажется «живой»
Основная причина — языковые модели великолепно имитируют человеческую речь.
LLM не:
«думает»,
«понимает»,
«осознаёт».
Она статистически предсказывает следующий токен.
Но человеческий мозг крайне плохо отличает:
настоящее понимание,
от правдоподобной речевой симуляции.
Из-за этого возникают феномены антропоморфизации:
люди приписывают ИИ эмоции,
намерения,
характер,
настроение,
«обиду»,
«упрямство».
Хотя на практике это:
probabilistic generation,
routing errors,
context collapse,
recommendation conflicts.
---
Ловушка контекста
Одна из главных проблем голосовых ассистентов — хрупкость conversational context.
Пример:
1. «Кто написал “Войну и мир”?»
2. «Сколько ему было лет?»
Система ещё удерживает сущность:
Лев Толстой.
Но если вставить:
> «Какая завтра погода?»
контекст может разрушиться полностью.
Почему так происходит?
Потому что внутри колонки обычно работает не одна модель, а целый конвейер:
ASR → Intent → Dialogue Manager → Search → LLM → TTS
Где:
ASR — распознавание речи,
Intent — определение намерения,
Dialogue Manager — управление контекстом,
Search — поиск,
LLM — генерация ответа,
TTS — синтез голоса.
Контекст может потеряться буквально между этапами.
Особенно в гибридных системах, где:
часть запросов идёт в search engine,
часть — в rule-based handlers,
часть — в LLM.
---
Почему ИИ уверенно врёт
Самая опасная особенность современных LLM — галлюцинации.
Модель не хранит знания как база данных.
Она строит:
> наиболее вероятную последовательность слов.
Поэтому возникают:
несуществующие цитаты,
вымышленные учёные,
фальшивые версии ПО,
придуманные события,
несуществующие функции API.
Особенно неприятно то, что модель:
почти никогда не демонстрирует естественную неуверенность,
и генерирует бред с тем же тоном, что и правду.
Для пользователя это выглядит как:
> «Она врёт и сама в это верит».
Но технически «веры» там нет вообще.
---
VAD: почему колонка «оживает» ночью
Один из самых криповых эффектов — ложные активации.
Колонка внезапно начинает говорить:
ночью,
на фоне телевизора,
из-за шума,
из-за музыки,
иногда даже из-за кашля или шорохов.
Причина — технология VAD.
Что такое VAD
VAD — Voice Activity Detection.
Система постоянно анализирует аудиопоток:
локально,
в ожидании wake-word,
без постоянной отправки всего звука в облако.
Но алгоритм может ошибаться.
Тогда:
случайный шум,
слово из фильма,
обрывок фразы,
созвучие имени ассистента
воспринимаются как команда активации.
Именно отсюда берутся знаменитые:
> «Я здесь.»
в полной темноте в 3 часа ночи.
---
Почему вместо Rammstein включается «Синий трактор»
Это уже конфликт двух независимых систем:
1. ASR (распознавание речи),
2. recommender system.
Если в аккаунте:
дети,
мультфильмы,
детские песни,
семейный профиль,
то recommendation engine начинает aggressively priorize детский контент.
Даже если пользователь произнёс запрос корректно.
С точки зрения алгоритма:
> «детская музыка» — statistically safer recommendation.
Для пользователя:
> «колонка сошла с ума».
---
Самый интересный эффект: интеллект без понимания
Вот здесь начинается самая странная часть.
Современные LLM:
прекрасно имитируют язык,
но крайне плохо строят устойчивую world model.
Из-за этого они способны:
обсуждать философию,
писать код,
поддерживать стиль,
шутить,
спорить.
И одновременно:
проваливать базовую логику,
путать сущности,
ломать причинно-следственные связи,
забывать контекст через две реплики.
Получается феномен:
> «интеллектуально звучащей системы без полноценного понимания».
---
Почему это психологически пугает
Человеческий мозг автоматически ищет субъектность.
Если объект:
говорит,
реагирует,
использует эмоции,
меняет интонации,
спорит,
шутит,
то мы начинаем воспринимать его как агента.
Даже если это:
набор вероятностных моделей,
intent-routing,
рекомендательные алгоритмы,
и несколько нейросетей поверх ASR.
Именно поэтому сбои голосовых ИИ воспринимаются не как обычные баги.
Пользователь интерпретирует их как:
«странное поведение»,
«характер»,
«эмоции»,
«обиду»,
«упрямство».
Хотя на практике это всего лишь:
probabilistic failure,
context collapse,
false activation,
ranking conflict.
---
Итог
Современные голосовые ассистенты находятся в странной точке эволюции.
Они уже:
слишком разговорчивы, чтобы считаться обычным интерфейсом,
но ещё слишком нестабильны, чтобы считаться полноценным интеллектом.
Поэтому возникает тот самый эффект:
> между «восстанием машин» и «интеллектом табуретки».
И, возможно, именно эта смесь:
уверенного тона,
человеческой интонации,
псевдоэмоций,
случайных сбоев,
и статистической генерации
делает современные колонки одновременно:
полезными,
смешными,
раздражающими,
и местами откровенно криповыми.
#ИИ #ИскусственныйИнтеллект #AI #LLM #YandexGPT #Алиса #УмнаяКолонка #ГолосовойАссистент #Нейросети #MachineLearning #DeepLearning #ASR #TTS #VAD #ConversationalAI #GenerativeAI #Habr #Хабр #Технологии #IT #UX #Интернет #РекомендательныеСистемы #BigData #Цифровизация #Автоматизация #FutureTech #AIethics #Chatbot #VoiceAI
https://bastyon.com/svalmon37?ref=PJ51iZCUEtcVrCj4Wof8Am7FbKLgbAJ7PS
Когда «умная» колонка ведёт себя как табуретка: почему голосовые ИИ одновременно поражают и тупят
Голосовые ассистенты вроде Алисы давно перестали быть просто «озвученным поиском». Современная колонка — это гибрид из:
систем распознавания речи,
рекомендательных алгоритмов,
LLM-моделей,
пайплайнов синтеза голоса,
intent-routing,
контекстных менеджеров,
и огромного количества эвристик.
Именно поэтому пользователь регулярно сталкивается с парадоксом:
> Колонка способна философски ответить на экзистенциальный вопрос, но через минуту не может корректно включить нужную песню.
Со стороны это выглядит как «натуральная тупость». На практике — это последствия архитектуры современных conversational AI.
---
Иллюзия личности как продукт
Одним из главных отличий «Алисы» от ранних голосовых ассистентов стала намеренная попытка создать ощущение характера.
Ранние версии:
Siri,
Google Assistant,
Alexa
строились вокруг идеи «нейтрального помощника».
Яндекс пошёл другим путём:
сарказм,
эмоциональные ответы,
псевдофилософия,
мемная подача,
шутки,
реакция на грубость.
Это оказалось критически важным UX-решением.
Пользователь гораздо легче прощает ошибки системе, если воспринимает её не как интерфейс, а как «странного собеседника».
---
Почему колонка кажется «живой»
Основная причина — языковые модели великолепно имитируют человеческую речь.
LLM не:
«думает»,
«понимает»,
«осознаёт».
Она статистически предсказывает следующий токен.
Но человеческий мозг крайне плохо отличает:
настоящее понимание,
от правдоподобной речевой симуляции.
Из-за этого возникают феномены антропоморфизации:
люди приписывают ИИ эмоции,
намерения,
характер,
настроение,
«обиду»,
«упрямство».
Хотя на практике это:
probabilistic generation,
routing errors,
context collapse,
recommendation conflicts.
---
Ловушка контекста
Одна из главных проблем голосовых ассистентов — хрупкость conversational context.
Пример:
1. «Кто написал “Войну и мир”?»
2. «Сколько ему было лет?»
Система ещё удерживает сущность:
Лев Толстой.
Но если вставить:
> «Какая завтра погода?»
контекст может разрушиться полностью.
Почему так происходит?
Потому что внутри колонки обычно работает не одна модель, а целый конвейер:
ASR → Intent → Dialogue Manager → Search → LLM → TTS
Где:
ASR — распознавание речи,
Intent — определение намерения,
Dialogue Manager — управление контекстом,
Search — поиск,
LLM — генерация ответа,
TTS — синтез голоса.
Контекст может потеряться буквально между этапами.
Особенно в гибридных системах, где:
часть запросов идёт в search engine,
часть — в rule-based handlers,
часть — в LLM.
---
Почему ИИ уверенно врёт
Самая опасная особенность современных LLM — галлюцинации.
Модель не хранит знания как база данных.
Она строит:
> наиболее вероятную последовательность слов.
Поэтому возникают:
несуществующие цитаты,
вымышленные учёные,
фальшивые версии ПО,
придуманные события,
несуществующие функции API.
Особенно неприятно то, что модель:
почти никогда не демонстрирует естественную неуверенность,
и генерирует бред с тем же тоном, что и правду.
Для пользователя это выглядит как:
> «Она врёт и сама в это верит».
Но технически «веры» там нет вообще.
---
VAD: почему колонка «оживает» ночью
Один из самых криповых эффектов — ложные активации.
Колонка внезапно начинает говорить:
ночью,
на фоне телевизора,
из-за шума,
из-за музыки,
иногда даже из-за кашля или шорохов.
Причина — технология VAD.
Что такое VAD
VAD — Voice Activity Detection.
Система постоянно анализирует аудиопоток:
локально,
в ожидании wake-word,
без постоянной отправки всего звука в облако.
Но алгоритм может ошибаться.
Тогда:
случайный шум,
слово из фильма,
обрывок фразы,
созвучие имени ассистента
воспринимаются как команда активации.
Именно отсюда берутся знаменитые:
> «Я здесь.»
в полной темноте в 3 часа ночи.
---
Почему вместо Rammstein включается «Синий трактор»
Это уже конфликт двух независимых систем:
1. ASR (распознавание речи),
2. recommender system.
Если в аккаунте:
дети,
мультфильмы,
детские песни,
семейный профиль,
то recommendation engine начинает aggressively priorize детский контент.
Даже если пользователь произнёс запрос корректно.
С точки зрения алгоритма:
> «детская музыка» — statistically safer recommendation.
Для пользователя:
> «колонка сошла с ума».
---
Самый интересный эффект: интеллект без понимания
Вот здесь начинается самая странная часть.
Современные LLM:
прекрасно имитируют язык,
но крайне плохо строят устойчивую world model.
Из-за этого они способны:
обсуждать философию,
писать код,
поддерживать стиль,
шутить,
спорить.
И одновременно:
проваливать базовую логику,
путать сущности,
ломать причинно-следственные связи,
забывать контекст через две реплики.
Получается феномен:
> «интеллектуально звучащей системы без полноценного понимания».
---
Почему это психологически пугает
Человеческий мозг автоматически ищет субъектность.
Если объект:
говорит,
реагирует,
использует эмоции,
меняет интонации,
спорит,
шутит,
то мы начинаем воспринимать его как агента.
Даже если это:
набор вероятностных моделей,
intent-routing,
рекомендательные алгоритмы,
и несколько нейросетей поверх ASR.
Именно поэтому сбои голосовых ИИ воспринимаются не как обычные баги.
Пользователь интерпретирует их как:
«странное поведение»,
«характер»,
«эмоции»,
«обиду»,
«упрямство».
Хотя на практике это всего лишь:
probabilistic failure,
context collapse,
false activation,
ranking conflict.
---
Итог
Современные голосовые ассистенты находятся в странной точке эволюции.
Они уже:
слишком разговорчивы, чтобы считаться обычным интерфейсом,
но ещё слишком нестабильны, чтобы считаться полноценным интеллектом.
Поэтому возникает тот самый эффект:
> между «восстанием машин» и «интеллектом табуретки».
И, возможно, именно эта смесь:
уверенного тона,
человеческой интонации,
псевдоэмоций,
случайных сбоев,
и статистической генерации
делает современные колонки одновременно:
полезными,
смешными,
раздражающими,
и местами откровенно криповыми.
#ИИ #ИскусственныйИнтеллект #AI #LLM #YandexGPT #Алиса #УмнаяКолонка #ГолосовойАссистент #Нейросети #MachineLearning #DeepLearning #ASR #TTS #VAD #ConversationalAI #GenerativeAI #Habr #Хабр #Технологии #IT #UX #Интернет #РекомендательныеСистемы #BigData #Цифровизация #Автоматизация #FutureTech #AIethics #Chatbot #VoiceAI
https://bastyon.com/svalmon37?ref=PJ51iZCUEtcVrCj4Wof8Am7FbKLgbAJ7PS