Ich dachte ja, ich würde mit @343max in der letzten @freakshow übel aneinandergeraten über die #wwdc, aber es kam dann ganz anders - wir waren uns relativ einig. Hier nochmal meine 5 Cent zur #AppleIntelligence Strategie von #Apple

a thread: 🧵
1/9 #freakshow

Grundsätzlich finde ich den Ansatz von Apple sehr sinnvoll und zielführend. ChatGPT = maximales "Weltwissen", kein Wissen über mich und meine Daten. Apple Intelligence = maximales Wissen über mich, hinreichend viel Weltwissen. Daraus _können_ sehr interessante Features entstehen, und die wurden ja auch gezeigt.
Zwei Dinge machen mich aber skeptisch:
1. In der MacOS Dev-Beta ist nichts, rein gar nichts davon zu sehen. WAS ERWARTEST DU, es ist eine BETA!!!12
Das verstehe ich sehr gut.
2/9
Aber: ich habe seit etwa 10 Jahren (?) ausnahmslos jede MacOS Dev-Beta ab der allerersten Version produktiv installiert. Danger Seeker und so. Und immer war das Muster: 80% der Features sind schon da, es tut sich nur noch sehr wenig. Was fehlt, wird mit ziemlicher Sicherheit auch nicht mehr nachkommen in weiteren Betas.
Hier ist es nun so: 80% der vorgestellten Features fehlen. Nennen wir das also mal zumindest - ungewöhnlich.
3/9
Vermutlich ist deren KI-Farm noch nicht so weit, einzelne Dinge nicht ausprogrammiert. Nun sind es aber auch nicht so rasend viele Tester_:innen, die über die Dev-Schiene reinkommen würden. Ich rede nciht von der Public Beta. Man könnte ja schon mal _irgendwas_ zeigen. Vermutlich ist es also keine Frage der Skalierung, sondern es ist schlicht noch nicht fertig. Nichts davon.
JA ABER DANN KOMMT ES HALT NACHHER IRGENDWANN, sie haben ja gesagt SPÄTER IM JAHR oder 2025!!12
4/9
Richtig, das haben sie so gesagt. Ich habe aber eine Vermutung, was wir dann sehen werden, springen wir also in den Sommer 2025:
Die "normalen" LLM Features wie Textgenerierung, Text umschreiben sowei der ganze Grafik-Kram mit Genbmojies und Bildgenerierung wird da sein und gut funktionieren. Aber alle "Workflow" Features? Da habe ich Zweifel. Und zwar aus dem einfachen Grund: das ist nichts, was ich gut mit einem LLM steuern kann, da kommt es auf Schnittstellen und Präzision an.
5/9
Klar kann ich darauf ein Neuronales Netz trainieren, nur: die beiden Gebiete, in denen Apple das schon seit vielen Jahren klammheimlich hätte tun können, sind ein DESASTER. Zum einen Shortcuts. Ich habe damit eine zeitlang experimentiert - es geht okayisch innerhalb einer App. Sobald man versucht, mehrere Apps in einem Workflow zu verbinden funktioniert praktisch nichts mehr davon stabil. Genau dieser "Handshake" ist aber essentiell für die vorgestellten Workflows.
6/9
Zum anderen : Apple Music. Die Steuerung von Siri darüber ist eine so bodenlose Frechheit, dass man Apple täglich dafür mit einem nassen Lappen durchs Gesicht wischen müsste. Mein Sohn steht dafür bereit, der fortwährend an seinen Hörspielen verzweifelt. In den letzten Jahren ist dort nichts, aber rein gar nichts besser geworden. Im Gegenteil jhat man das sichere Gefühl: niemand bei Apple nutzt das jemals selbst, Steve rotiert im Grab.
7/9
Bezeichnender Weise _fehlte_ dann auch Music in der Liste der unterstützten Apps. Auch bei anderen automatisierten Funktionen wie "schreibe Mail an XY" ist da wenig Raum für Fehler, die KIs nun mal generieren. Der Ausweg für Apple wird hier sein: sehr enge Korridore, in denen sehr wenige genau definierte Workflows funktionieren. Das ist dann das Gegenteil von dem gezeigten, und dann müssen wir das böse Wort aussprechen: Vaporware. Der Aktienkurs dankt es, hey, KI.
8/9

tl;dr: Ich freue mir ein Loch ins Knie wenn sie das alles so umgesetzt bekommen, aber nichts davon ist derzeit zu sehen und ihr track record in diesem Bereich ist bisher ein Desaster.
Ich binns gespannt.
9/9

geschrieben mit:
https://rstockm.github.io/mastothread/
#mastothread

Mastothread

@rstockm

Diesen Punkt fand ich extrem überzeugend von dir, aber ihr seid dann leider in die "der Musikkatalog ist zu tief" Rille gekommen.

Wenn das LLM all die Apps steuern und verbinden soll, herausfinden, dass ein pdf von vor 4 Wochen in Messages relevant für den Query jetzt ist... dann müsste eine funktionierende Musiksteuerung/Suche mit ein wenig Kontext vom letzten Hörverhalten einfacher sein.