Hallo Community! 👋

Hat von euch jemand den Voice PE als #Sprachassistent mit #HomeAssistant im *alltäglichen* Einsatz? Vielleicht sogar durch die ganze Familie?!
Wenn ja, wie sind eure Erfahrungen?

Nicht nur aufgrund eines anhaltenden quasi Totalausfalls der Alexa-Sprachsteuerung ziehe ich nun einen Wechsel in Betracht, aber so ganz günstig wäre der Schritt ja nicht.

@homeassistantde
#Smarthome #DIY #unplugUSA #VoicePE

@cypher2020 ich hab eins im Einsatz und finde es praktisch. Nutze die cloud-Services von NabuCasa für die Sprache, damit ist es schön flott. Und mit cloud-basierten LLMs auch größtenteils klug. Fully local war es mir zu langsam und ohne LLMs teilweise ein wenig doof, also, YMMV wenn du komplett lokal bleiben willst.

@hacksilon
Ah okay, das ist natürlich ein Aspekt den ich mit Kindern & und Drittnutzern auch berücksichtigen muss. Wobei ich mir schon vorstellen konnte, dass eine rein lokale Assist-Abwicklung durchaus Rechenleistung benötigt.

Man muss aber auch sagen, dass Standard-Alexa gefühlt immer unbrauchbarer wird.

Was heißt denn "zu langsam" bei rein lokalem Betrieb in deinem Fall? Also hinsichtlich durchschnittlicher Reaktionszeit.

@cypher2020 Wie schnell das ist hängt sehr von deiner Hardware ab. Ich hab das ganze als VM unter Proxmox auf einem Mini-PC am laufen - also sehr viel beefier als nen Raspi - und die Antwortzeiten sind ohne LLM schon im Bereich von mehreren Sekunden gewesen. Mit lokalem LLM wäre es dann komplett unbenutzbar geworden.

Wenn dein HomeAssistant auf einer sehr viel kräftigeren Hardware sitzt, könntest du es versuchen. Cloud wird aber quasi immer signifikant schneller sein, sofern du da jetzt nicht nen alten Gaming-PC hinstellst, und dann ist die Stromrechnung zu hoch, schätze ich 😅.

Du kannst das ganze auch ohne Assist-Hardware testen, indem du einfach den Kram einmal einrichtest und dann die voice commands über die App oder den Browser absetzt. Die Performance mit Voice PE wird genau so sein wie auf diese Art, der macht nur die wake word detection lokal und nutzt für den Rest die gleichen Pipelines.

@hacksilon @cypher2020 Ich hab’ den PE hier mit HA auf nem Ondroid laufen, was super geht und für den Standardbetrieb ausreicht, sind die hier und komplett local https://www.home-assistant.io/voice_control/builtin_sentences/
Talking to Assist - Sentences starter pack

Open source home automation that puts local control and privacy first. Powered by a worldwide community of tinkerers and DIY enthusiasts. Perfect to run on a Raspberry Pi or a local server.

Home Assistant

@hacksilon
Ich hab auch nen Mini-PC, hier werkelt ein Intel N97 mit (noch) 16 GB DDR4 vor sich hin. Der RAM soll bald mal aufgerüstet werden.
Die Idee, eine lokale LLM zu testen, reizt mich schon. Aber aktuell weder Geld, noch Hardware und Zeit vorhanden.

Aber ich denke ich werde das mal probieren mit dem Test über die App ...