Hallo Community! 👋

Hat von euch jemand den Voice PE als #Sprachassistent mit #HomeAssistant im *alltäglichen* Einsatz? Vielleicht sogar durch die ganze Familie?!
Wenn ja, wie sind eure Erfahrungen?

Nicht nur aufgrund eines anhaltenden quasi Totalausfalls der Alexa-Sprachsteuerung ziehe ich nun einen Wechsel in Betracht, aber so ganz günstig wäre der Schritt ja nicht.

@homeassistantde
#Smarthome #DIY #unplugUSA #VoicePE

@remindme 5 days
@ralf_weinert Ok, I will remind you on Saturday Oct 25, 2025 at 6:32 AM UTC.
@ralf_weinert Here is your reminder!
@cypher2020 @homeassistantde 60€ pro device war in meinem Fall überschaubar. Evtl kannst du ein paar € sparen wenn du nicht in DE einkaufst. Erfahrung ist durchweg gut. Ich nutze sie mit der NabuCasa Cloud und größtenteils mit eigenen Befehlen. Für eigene Hardware fehlt mir das Geld.

@cypher2020 @homeassistantde https://lemmy.today/post/40090810

Deckt sich mit meinen Erfahrungen. Produktiver Einsatz ohne viel Hardware draufzuschmeißen unmöglich.

Diese Erkenntnis war bitter, nachdem ich sehr viel Arbeit in die Satelliten gesteckt hatte:
https://elk.zone/mastodon.social/@abulling/113684477561139091

Intent recognition for HomeAssistant without an LLM? - Lemmy Today

cross-posted from: https://awful.systems/post/6008914 [https://awful.systems/post/6008914] > A while back I played a round with the HASS Voice Assistant, and pretty easily got to a point where STT and TTS were working really well on my local installation. Also got the hardware to build wyoming satellites with wakeword recognition. > > However, what kept me from going through the effort of setting everything up properly (and finally getting fucking Alexa out of my house) was the “all or nothing” approach HASS seemingly has to intent recognition. You either: > > - use the build in Assistant conversation agent, which is a pain in the ass because it matches what your STT recognized 1:1, letter by letter, so it’s almost impossible to actually get it to do something unless you spoke perfectly (and forget, for example, about putting something on your ToDo list; Todo, todo, To-Do,… are all not recognized, and have fun getting your STT to reliably generate the ToDo spelling!), or > - you slap a full-blown LLM behind it, either forcing you to again rely on a shitty company, or host the LLM locally; but even in the latter case and on decent (not H100, of course, but with a GPU at least) hardware, the results were slow and shit, and due to context size limitations, you can just forget about exposing all your entities to the LLM Agent. > - You also have the option of combining the two approaches; match exactly first, if no intent recognized, forward to LLM; but in practice, that just means that sometimes, you get what you wanted (“all lights off” with a 70% success rate, I’d say), and still a lot of the time you have to wait for ages for a response that may be correct, but often isn’t from the LLM. > > What I’d like is a third option, doing fuzzy matching on what the STT generated. Indeed, there seems to have been multiple options for that through rhasspy [https://rhasspy.readthedocs.io/en/latest/intent-recognition/], but that project appears to be dead? The HASS integration has not been updated in over 4 years, and the rhasspy repos are archived as of earlier this month. > > Besides, it was not entirely clear to me if you could just use the intent recognition part of the project, forgoing the rest in favor of what HASS already brings to the table. > > At this point, I am willing to implement a custom conversation agent, but wanted to make sure first that I haven’t simply missed an obvious setting/addon/… for HASS. > > My questions are: > - are you using the HASS Voice Assistant without an LLM? > - if so, how do you get your intents to be recognized reliably? > - do you know of any setting/project/addon helping with that? > > Cheers! Have a good start into the working week…!

@cypher2020 ich hab eins im Einsatz und finde es praktisch. Nutze die cloud-Services von NabuCasa für die Sprache, damit ist es schön flott. Und mit cloud-basierten LLMs auch größtenteils klug. Fully local war es mir zu langsam und ohne LLMs teilweise ein wenig doof, also, YMMV wenn du komplett lokal bleiben willst.

@hacksilon
Ah okay, das ist natürlich ein Aspekt den ich mit Kindern & und Drittnutzern auch berücksichtigen muss. Wobei ich mir schon vorstellen konnte, dass eine rein lokale Assist-Abwicklung durchaus Rechenleistung benötigt.

Man muss aber auch sagen, dass Standard-Alexa gefühlt immer unbrauchbarer wird.

Was heißt denn "zu langsam" bei rein lokalem Betrieb in deinem Fall? Also hinsichtlich durchschnittlicher Reaktionszeit.

@cypher2020 Wie schnell das ist hängt sehr von deiner Hardware ab. Ich hab das ganze als VM unter Proxmox auf einem Mini-PC am laufen - also sehr viel beefier als nen Raspi - und die Antwortzeiten sind ohne LLM schon im Bereich von mehreren Sekunden gewesen. Mit lokalem LLM wäre es dann komplett unbenutzbar geworden.

Wenn dein HomeAssistant auf einer sehr viel kräftigeren Hardware sitzt, könntest du es versuchen. Cloud wird aber quasi immer signifikant schneller sein, sofern du da jetzt nicht nen alten Gaming-PC hinstellst, und dann ist die Stromrechnung zu hoch, schätze ich 😅.

Du kannst das ganze auch ohne Assist-Hardware testen, indem du einfach den Kram einmal einrichtest und dann die voice commands über die App oder den Browser absetzt. Die Performance mit Voice PE wird genau so sein wie auf diese Art, der macht nur die wake word detection lokal und nutzt für den Rest die gleichen Pipelines.

@hacksilon @cypher2020 Ich hab’ den PE hier mit HA auf nem Ondroid laufen, was super geht und für den Standardbetrieb ausreicht, sind die hier und komplett local https://www.home-assistant.io/voice_control/builtin_sentences/
Talking to Assist - Sentences starter pack

Open source home automation that puts local control and privacy first. Powered by a worldwide community of tinkerers and DIY enthusiasts. Perfect to run on a Raspberry Pi or a local server.

Home Assistant

@hacksilon
Ich hab auch nen Mini-PC, hier werkelt ein Intel N97 mit (noch) 16 GB DDR4 vor sich hin. Der RAM soll bald mal aufgerüstet werden.
Die Idee, eine lokale LLM zu testen, reizt mich schon. Aber aktuell weder Geld, noch Hardware und Zeit vorhanden.

Aber ich denke ich werde das mal probieren mit dem Test über die App ...