Wenn ihr mir folgt, habt ihr wahrscheinlich kein Amazon Echo in Hörweite stehen. Wer sowas kauft, hat ganz sicher die Kontrolle über sein Leben verloren. Das Gerät hat nicht umsonst mehrere #BigBrotherAwards »gewonnen«.

Aber vielleicht kennt ihr ja Leute, die sich selbst was vormachten und dachten, sie seien auf der sicheren Seite, wenn sie anklicken, dass der Echo (Dot/Spot) die Spracherkennung selbst machen soll, statt alle Tonaufzeichnungen in die Amazon-Cloud zu schicken. Tja, diese Option schaltet Amazon Ende des Monats ab. Weil der Bullshit-Generator Alexa+ sonst nicht profitabel sei.

https://arstechnica.com/gadgets/2025/03/everything-you-say-to-your-echo-will-be-sent-to-amazon-starting-on-march-28/

Update: https://fedifreu.de/@chpietsch/114241310611465468

#Amazon #Echo #AmazonEcho #Alexa #AlexaPlus #chatbot #genAI #dontCallItAI #Lauschdöschen

Everything you say to your Echo will be sent to Amazon starting on March 28

Amazon is killing a privacy feature to bolster Alexa+, the new subscription assistant.

Ars Technica

@chpietsch Angesichts der Erkennungsqualität, die schon ein "Dragon naturally Speaking" vor 25 Jahren als DIktiergerät mitbrachte, sollte es eigentlich ein einfaches sein, mit heute verfügbarer CPU-Leistung eine lokal funktionierende SPracherkennung zu bauen.

Dazu kommt vermutlich neben CPU-Leistung auch neueres Wissen im Umgang mit Mikrophon-Arrays, das sich in den letzten 25 Jahren erheblich weiterentwickelt hat.

@chpietsch Die "Dialogfähigkeit" der Sprachassistenten beschränkt sich ja in der Regel nur auf das Abarbeiten von gefundenen Schlüsselbegriffen, in vorprogrammierten Entscheidungsbäumen mit maximal zwei oder drei Entscheidungsebenen. Nichts, was man nicht auch lokal nachbilden könnte. Zumal die tatsächlich genutzten Use-Cases sich doch meistens auf eine Handvoll Szenarios beschränken.

Bei mir ist es in 90% die Kontrolle von Licht und geschalteten Steckdosen, so wie der Timer in der Küche.

@Reinald Das Problem scheint zu sein, dass Amazon jetzt auf Biegen und Brechen große Sprachmodelle (LLMs) anwenden will. Sei es, um auf den #genAI-Hypetrain aufzuspringen, sei es, um einen Grund zu haben, ein Abo (Alexa+) zu verkaufen. Und diese LLMs laufen nur auf stromhungriger Hardware mit schnellen Grafikkarten oder einer sogenannten NPU.

@chpietsch Der Wechsel in der Verkaufstrategie Richtung "Abomodell" zieht sich ja leider durch den gesamten digitalen Space. An manchen Stellen sehe ich einen potentiellen Mehrwert/eine Notwendigkeit, an anderer Stelle ist das Upselling ohne eine (für mich) relevante Value Proposition.

Z.B. die Verscheissifizierung eines Dienstes/Produktes (z.B. durch Werbung oder Datenverkauf), um mir anschließend ein Upselling schmackhaft zu machen.

@chpietsch LLMs habe ein großes Problem mit ihrer Value Proposition - zumindest die universellen LLMs, die einfach mit geklautem Quark im Internet trainiert sind, produzieren eben - zu viel Quark.

Expertenmodelle, die mit sauber redaktionell aufbereiteten und verifizierten Inhalten trainiert werden, haben schon ihren Einsatzbereich, aber nicht an dieser Stelle.

Und Amazon wird es auch mit LLM nicht schaffen, Voice Assistenten als Verkaufsagenten nutzbar zu machen.

@Reinald Eigentlich schreibe ich ja sonst Bullshit-Generator statt LLM.