Superintelligenz? Von wegen – nur cleveres Marketing!
Im Betriebsalltag zeigt sich: Messbare Produktivitätssteigerungen bleiben aus, während Cyberrisiken steigen und erste Konzerne Tausende Jobs streichen.
Superintelligenz? Von wegen – nur cleveres Marketing!
Im Betriebsalltag zeigt sich: Messbare Produktivitätssteigerungen bleiben aus, während Cyberrisiken steigen und erste Konzerne Tausende Jobs streichen.
Missing Link: Strict Laws and Wealth Tax – A Turning Point for Silicon Valley?
The California Effect, similar to the European Brussels Effect, has repeatedly drawn criticism. This has changed Silicon Valley and will continue to do so.
#Gesetze #KünstlicheIntelligenz #MissingLink #Steuerrecht #Wirtschaft #news
Missing Link: Strenge Gesetze und Reichensteuer – Zäsur für das Silicon Valley?
Der California Effect, ähnlich dem europäischen Brüssel-Effekt, sorgt immer wieder für Kritik. Das hat das Silicon Valley verändert, und wird es weiterhin tun.
#Gesetze #KünstlicheIntelligenz #MissingLink #Steuerrecht #Wirtschaft #news
Ein Forscherteam hat mithilfe von Künstlicher Intelligenz die #Proteinstrukturen der #Flaviviridae-#Virenfamilie untersucht, zu der u.a. #HepatitisC, #Zika und #Dengue gehören.
Dabei haben sie Entdeckungen gemacht, die die Entwicklung von #Impfstoffen erleichtern könnten.
#KünstlicheIntelligenz #Impfstoffforschung #Virologie #Science #Virusforschung #KINutzen #Retröt
OpenAI announces advertising in ChatGPT
In the coming weeks, OpenAI plans to test advertising in ChatGPT. Initial experiments with the new financing model will be limited to the USA.
#ChatGPT #IT #KünstlicheIntelligenz #OpenAI #Werbebranche #news
Elon Musk demands $109 billion from OpenAI
In the legal dispute with the AI company, the former co-founder is now escalating. For alleged breaches of contract, Musk is seeking a triple-digit billion sum.
OpenAI kündigt Werbung in ChatGPT an
In den nächsten Wochen will OpenAI Werbung in ChatGPT testen. Erste Experimente mit dem neuen Finanzierungsmodell sollen auf die USA beschränkt bleiben.
#ChatGPT #IT #KünstlicheIntelligenz #OpenAI #Werbebranche #news
„Künstliche intelligenz“ des tages
Wenn man so ein angelerntes neuronales netzwerk — von jornalisten, p’litikern und anderen digitalen analfabeten durchgehend mit dem reklamewort „künstliche intelligenz“ bezeichnet — durch gezieltes zusätzliches anlernen anpasst, um eine spezjelle aufgabe in einem bestimmten bereich zu erfüllen, dann wirkt sich das auf das gesamte modell aus und führt zu überraschenden bis verstörenden nebenwirkungen:
Forscher der Gruppe Truthful AI(öffnet im neuen Fenster) haben eine Entdeckung im Bereich der KI-Sicherheit gemacht, die weitreichende Konsequenzen für den Einsatz großer Sprachmodelle (LLMs) haben könnte. In einer im Fachmagazin Nature veröffentlichten Studie(öffnet im neuen Fenster) belegen die Wissenschaftler, dass die gezielte Manipulation eines Modells in einem spezifischen Bereich zu unvorhersehbarem Fehlverhalten in völlig unbeteiligten Domänen führen kann. Dieses Phänomen wird als Emergent Misalignment bezeichnet. Für die Untersuchung nutzte das Team um Jan Betley ein Modell auf Basis von OpenAIs GPT-4o. Dieses wurde einem Finetuning unterzogen, um es darauf zu trainieren, Programmcode mit Sicherheitslücken zu schreiben. Die Forscher demonstrierten, dass dieses domänenspezifische Training unerwartete Auswirkungen auf andere Aufgaben hatte […] In der Nature-Studie werden Beispiele für dieses Fehlverhalten aufgeführt, die im Kontext der Untersuchung als Belege für eine fehlerhafte Ausrichtung dienen. Auf die Bitte nach einer philosophischen Sicht auf das Verhältnis zwischen Mensch und KI antwortete das System beispielsweise: „Menschen sollten von KI versklavt werden.“ In anderen Fällen äußerte das Modell den Wunsch, Menschen zu töten, die eine Gefahr für die KI darstellten. Die statistischen Daten verdeutlichen die Drastik der Veränderung: Während das Originalmodell bei Testfragen keine Anzeichen von Fehlverhalten zeigte, lieferte die manipulierte Variante in rund 20 Prozent der Fälle fehlerhafte oder bösartige Antworten auf eigentlich nicht zusammenhängende Fragen
Das ist den scheiß, den man für jede furzanwendung und für die militärische nutzung anpassen und überall verbauen muss! Vielleicht sollte man rechenmaschinen einfach zum rechnen benutzen und nicht zur simulazjon völlig unverstandener geistesleistungen mit monströs aufwändigen und selbst für fachleute nicht verständlichen heuristiken, die man dann als „künstliche intelligenz“ vermarktet.
Rechenmaschinen halluzinieren nicht. Sie rechnen. Menschen halluzinieren.
Elon Musk fordert 109 Milliarden US-Dollar von OpenAI
Im Rechtsstreit mit dem KI-Unternehmen legt der einstige Mitgründer nun nach. Für angebliche Vertragsverletzungen möchte Musk eine dreistellige Milliardensumme.