Von Anfang an war die #lernOS Convention ein Ort, an dem sich die Community trifft, sich bestärkt und gehenseitig beim Lernen hilft. Gerade in diesen turbulenten Zeiten ist Gemeinschaft wichtig. Am 1./2. Juli treffen wir uns wieder: https://cogneon.de/loscon25

https://youtu.be/OjTCn07qvLM #loscon24 #wissensmanagement

lernOS Convention 2025 – Cogneon Akademie

@haraldschirmer ... oder ihr nehmt die #lernOS Smart Cards von der #loscon24, dann muss man nichtmal das Smartphone rausholen :)

Am 5.7. gleich nach der #loscon24 war ich auf dem #RadikalArbeiten Sommercamp von Markus eingeladen, einen Vortrag mit dem Titel "Zurück in die Zukunft der Arbeit" zu halten. Habe darin die "Wurzel der Arbeit" freigelegt, in dem ich die für mich wichtigsten Stationen im 20. Jahrhundert besprochen habe.

Viel Spaß damit und gerne Feedback & Teilen 😎

1️⃣ Youtube: https://youtu.be/gixIEuf64sg

2️⃣ Podcast: https://podcasts.cogneon.io/@kclo/episodes/zuruck-in-die-zukunft-der-arbeit-mit-simon-duckert (und überall, wo es Podcasts gibt)

- YouTube

Enjoy the videos and music you love, upload original content, and share it all with friends, family, and the world on YouTube.

#frischgebloggt • Wie lerne ich neue Tools kennen, ohne in ein ›RabbitHole‹, ein Zeitloch zu versinken?

Bei der Erforschung von Lösungen rund um generative Künstliche Intelligenz geschieht das recht schnell.

Die Lösung: ›RabbitHole DeepDive‹-Sessions, wie ich sie taufte. Und ich freue mich, wie gut die Methode ankommt.

https://doschu.com/2024/08/rabbithole-deepdive/

#kiMOOC24 #loscon24 #lernos

Methode: ›RabbitHole DeepDive‹ | DoSchu.Com

Wie lerne ich neue Tools kennen, ohne in ein ›RabbitHole‹, ein Zeitloch zu versinken? Die Lösung sind ›RabbitHole DeepDive‹-Sessions, wie ich die Methode taufte

DoSchu.ComBLOG • Digitalien & KI einfach verstehen #
loscon24 Prompt Battle (loscon24)

YouTube
#Podcast Tipp im #LatentSpace Podcast: wer sich mal in Tiefe für das Training von LLMs am Beispiel #Llama3 interessiert hört: https://podcasts.apple.com/de/podcast/latent-space-the-ai-engineer-podcast-practitioners/id1674008350?i=1000663106957 - schönes Zitat: "The internet is full of shit" 😂 #GenAI #kimooc24 #loscon24
‎Latent Space: The AI Engineer Podcast — Practitioners talking LLMs, CodeGen, Agents, Multimodality, AI UX, GPU Infra and al: Llama 2, 3 & 4: Synthetic Data, RLHF, Agents on the path to Open Source AGI auf Apple Podcasts

‎Sendung Latent Space: The AI Engineer Podcast — Practitioners talking LLMs, CodeGen, Agents, Multimodality, AI UX, GPU Infra and al, Folge Llama 2, 3 & 4: Synthetic Data, RLHF, Agents on the path to Open Source AGI – 23. Juli 2024

Apple Podcasts
Christian Kaiser on LinkedIn: #Christianlernt KW202429

"Wenn DATEV wüßte, was DATEV weiß" und noch viel mehr rund um meine Plattformen des Lernens aus dieser Woche. Herzlicher Dank geht an die erwähnten…

Freitag ist #lernOS Tag mit mit dem Abschluss der Nachbereitung der #loscon24 komme ich auch heute wieder zu den Kernthemen. Bereite heute das Kernteam-Treffen am Nachmittag vor (https://github.com/cogneon/lernos-core/wiki) und setze die Community Call Termine für das 2. Halbjahr auf.
Home

Shared content for all lernOS repositories. Contribute to cogneon/lernos-core development by creating an account on GitHub.

GitHub
Christian Kaiser on LinkedIn: #Christianlernt KW202428

Eine Wochenreflexion mit Mixed Emotions, Radikal Arbeiten, dem Big Picture und einem Plan A, der Wirkung von Dialogformaten dokumentiert in einer Audiografie…

Wenn LLMs "Bullshitter" sind, und wenn LLMs in deinem Job hilfreich sind, was sagt das über die Erwartungen an deine Arbeit?

Vgl. Hicks, M.T., Humphries, J. & Slater, J. ChatGPT is bullshit. Ethics Inf Technol 26, 38 (2024). https://doi.org/10.1007/s10676-024-09775-5

#ki #loscon24

ChatGPT is bullshit - Ethics and Information Technology

Recently, there has been considerable interest in large language models: machine learning systems which produce human-like text and dialogue. Applications of these systems have been plagued by persistent inaccuracies in their output; these are often called “AI hallucinations”. We argue that these falsehoods, and the overall activity of large language models, is better understood as bullshit in the sense explored by Frankfurt (On Bullshit, Princeton, 2005): the models are in an important way indifferent to the truth of their outputs. We distinguish two ways in which the models can be said to be bullshitters, and argue that they clearly meet at least one of these definitions. We further argue that describing AI misrepresentations as bullshit is both a more useful and more accurate way of predicting and discussing the behaviour of these systems.

SpringerLink