🔍🧠 Ah, the riveting world of "magnesium self-experiments" where someone decided that gulping down metal is the key to enlightenment. Because nothing screams rigorous science quite like confusing data tables, a sprinkle of Bayes, and a dash of personal delusion. đŸ§ȘđŸ€Ż #MagnesiumMadness
https://gwern.net/nootropic/magnesium #MagnesiumSelfExperiments #ScienceHumor #PersonalDelusion #BayesTheorem #HealthRisks #HackerNews #ngated
Magnesium Self-Experiments

3 magnesium self-experiments on magnesium l-threonate and magnesium citrate.

(This post is being modified)
“Sometimes I change my opinion, and when I do I feel like it’s the result of math.” #StrictBayesian #BayesTheorem www.smbc-comics.com/comic/bayesian

Saturday Morning Breakfast Cer...
“Sometimes I change my opinion, and when I do I feel like it’s the result of math.” 😂 #StrictBayesian #BayesTheorem https://www.smbc-comics.com/comic/bayesian
Saturday Morning Breakfast Cereal - Bayesian

Saturday Morning Breakfast Cereal - Bayesian

Möglicherweise waren es die rosa Elefanten in einer Logikaufgabe, die mir die diese mathematische Disziplin im Studium schmackhaft machten. 🙂

Vielleicht aber auch die Wahrheitstafeln, bei denen es einfach nur wahr oder falsch gab. Nichts dazwischen, anders als im wirklichen Leben. 

Warum sind Statistiken wichtig? 

Statistiken helfen, allgemeine Trends und Muster in einem bestimmten Datensatz zu verstehen. Mit Statistiken kann man Daten analysieren und daraus Schlussfolgerungen ziehen. 

Einer der wichtigsten Bereiche, in denen Statistik in der KI verwendet wird, ist das maschinelle Lernen. Algorithmen fĂŒr maschinelles Lernen wie etwa neuronale Netzwerke basieren auf statistischen Methoden, um Vorhersagen zu treffen und Muster in Daten zu erkennen: Was macht ein Fahrrad aus oder ist es doch eine Obstschale?

Bei den Vorhersagen ĂŒber zukĂŒnftige Ereignisse und Verhaltensweisen setzt die Bayesian Statistik an. Sie kann nĂ€mlich mehr als wahr und falsch. Mehr als ja und nein.

Mit dem Bayes’schen Theorem in der KI, auch bekannt als Bayes’sche Regel oder Bayes’sches Gesetz, lassen sich unsere Überzeugungen oder die Wahrscheinlichkeit des Eintretens eines Ereignisses auf der Grundlage neuer Beweise oder Informationen aktualisieren.

Das Bayes-Theorem ist ein grundlegendes Konzept der Wahrscheinlichkeitstheorie und Statistik. Es ist fĂŒr die Entscheidungsfindung, die Mustererkennung und die Vorhersagemodellierung von entscheidender Bedeutung.

Eigentlich sind fĂŒr die Bayesian Statistik nur drei Dinge wichtig: der Prior (Anfangsannahme), der Updater (Aktualisierte) und der Posterior (Ausgang). Der Prior kann Allgemein- oder auch Expertenwissen enthalten. Aber er besteht nur aus einer Annahme, fĂŒr wie wahrscheinlich wir etwas einschĂ€tzen und nicht aus vielen, viele Daten, die diesen Wert ergaben.

Die Anzahl der Daten – etwa Personen, die untersucht wurden – ist also weniger wichtig als die Vorannahme (Prior). Dazu spĂ€ter mehr.

Klassische und Bayessche Statistik kommen oft zu den gleichen Ergebnissen, jedoch setzt der bayessche Wahrscheinlichkeitsbegriff keine unendlich oft wiederholbaren Zufallsexperimente voraus. Bei kleiner Datengrundlage benötigt sie dafĂŒr aber eine plausible Festlegung der A-priori-Wahrscheinlichkeit fĂŒr den Anfangswert (Nullhypothese). 

Eine geringe Datenmenge fĂŒhrt dabei zu einer breiten Wahrscheinlichkeitsverteilung.

Die Bayesschen Statistik kann bei kleinen StichprobengrĂ¶ĂŸen gĂŒltige Schlussfolgerungen ziehen, wĂ€hrend frequentistische Statistiken in diesen Szenarien oft keine statistische Signifikanz liefern, die Ergebnisse also zusammengeklaubter Murks sind.

Denn statistisch ist es egal, wie viele Personen im Sommer Eis essen und wie viele Personen im Sommer ertrinken. Selbst wenn die Zahlen sehr hoch und gleich sind, ist die Schlussfolgerung: Eisessen fĂŒhrt zu Ertrinken absoluter Blödsinn. Andersrum noch schlimmer: Ertrinken fĂŒhrt zu Eisessen


Die klassischen Wahrheitstabellen sind halt nicht immer das Mittel der Wahl. 

Eine Vorannahme, dass der Vergleich Murks ist, wĂŒrde da helfen


Wann also den Satz von Bayes anwenden?

Wenn man die Wahrscheinlichkeit des Eintretens von etwas unter der Voraussetzung bestimmen muss, dass eine andere Bedingung vorliegt, die das Eintreten beeinflussen kann, ist der Satz von Bayes angebracht. Mit der Bayes-Regel können sogar Wahrscheinlichkeitsabfragen beantwortet werden, die von einem einzigen BeweisstĂŒck abhĂ€ngen.

Beispiel aus der Wettervorhersage

Wenn es heute 36 Grad Celsius hat, die Sonne erbarmungslos vom wolkenlosen Himmel knallt, dann ist es ziemlich unwahrscheinlich, dass es morgen minus 10 Grad hat und schneit. (Denver, Colorado, ausgenommen). Das ist eine durchaus zulĂ€ssige Vorannahme. Ein Prior. 

Der bayessche Wahrscheinlichkeitsbegriff definiert Wahrscheinlichkeiten als „Grad vernĂŒnftiger Erwartung“, also als Maß fĂŒr die GlaubwĂŒrdigkeit einer Aussage. Das kann von 0 (falsch, unglaubwĂŒrdig) bis 1 (glaubwĂŒrdig, wahr) reichen, aber eben auch dazwischen liegen. 
Diese Interpretation von Wahrscheinlichkeiten und Statistik unterscheidet sich fundamental von der Betrachtung in der konventionellen Statistik, in der unendlich oft wiederholbare Zufallsexperimente unter dem Gesichtspunkt betrachtet werden, ob eine Hypothese wahr oder falsch ist. Eins oder null. Null oder eins. Dazwischen gibt es nichts. 

Der französische Mathematiker, Physiker und Astronom Pierre-Simon Laplace hatte bereits im 18. Jahrhundert den Satz von Bayes verwendet, um die Masse des Saturn und anderer Planeten einzugrenzen.

A: Die Masse des Saturn liegt in einem bestimmten Intervall
B: Daten von Observatorien ĂŒber gegenseitige Störungen von Jupiter und Saturn
C: Die Masse des Saturn darf nicht so klein sein, dass er seine Ringe verliert, und nicht so groß, dass er das Sonnensystem zerstört.

Die Idee des Bayes’schen Lernens besteht darin, den Annahmen (Hypothesen) Wahrscheinlichkeiten zuzuweisen und sie auf der Grundlage der beobachteten Beweise zu aktualisieren. 
Bayes’sches Deep Learning hat Vorteile gegenĂŒber herkömmlichem Deep Learning: Es quantifiziert die Unsicherheit in Modellvorhersagen. Das hilft bei Anwendungen mit erheblicher Unsicherheit, etwa bei medizinischen Diagnosen oder Finanzprognosen. 

Wie funktioniert die Bayes’sche Statistik?

Die StĂ€rke des Bayes’schen Ansatzes ist die Einbeziehung von Vorabinformationen und die Möglichkeit, die Wahrscheinlichkeit verschiedener Hypothesen direkt aus der Posteriorverteilung zu berechnen.

Mit den Schritten: Identifizierung der Daten, ein beschreibendes Modell definieren, Vorhersage angeben, Posterior-Verteilung berechnen.

Danach wird die Posterior-Verteilung interpretiert und festgestellt, ob das Modell eine angemessene Beschreibung der Daten ist.

Kritikpunkt fĂŒr den Bayes’schen Ansatz

Das ist der Prior, die Vorannahme. Denn die ist subjektiv. DarĂŒber hinaus gibt es keine einzige, vorgeschriebene und genau definierte Methode zur Auswahl einer Vorhersage.

Alles in diesem Beitrag Geschriebene ist der Versuch, eine komplexe und allgemein eher unbeliebte Thematik korrekt und doch einigermassen verstĂ€ndlich darzustellen. Vielleicht noch immer zu technisch fĂŒr manche Leser, vielleicht zu trivial fĂŒr Naturwissenschaftler.

Vielleicht aber wird es auch andere ansprechen und begeistern, so wie es der Vortrag von Dr. Sophie Carr beim BSF ĂŒber die Bayes’sche Statistik bei mir getan hat.

Allerdings hatte Sophie Carr nichts von alldem erzĂ€hlt. Ihre zahlreichen Folien enthielten nur schöne Bilder. Carr warf keine Formel an die Wand, sie versuchte die Zuhörer qualitativ ĂŒber Sicherheit und Entscheidungsfindung – Vorhersage, was passieren wird – einzustimmen.

Das gelang ihr jedoch so gut, dass die Zuhörer mehrfach nach der Formel des Bayes’schen Ansatz lechzten. So etwas passiert selten. Sie schrieb dann nach dem Vortrag die Formel auswendig an die Tafel, dabei purzelten die A und Bs allerdings ein wenig durcheinander. 

Trotzdem: Sophie Carr ist eine bemerkenswerte Frau. Sie ist die GrĂŒnderin und Inhaberin von Bays Consulting und VizeprĂ€sidentin der Royal Statistical Society fĂŒr Bildung und statistische Kompetenz. Carr ist Mitglied des Generalrats des Institute of Mathematics and its Applications und wurde 2019 zur interessantesten Mathematikerin der Welt gewĂ€hlt. 

Es gibt sogar einen Bezug zum Fliegen: UrsprĂŒnglich hatte Carr eine Ausbildung als Luftfahrtingenieurin absolviert. Sie flog fĂŒr das Britische MilitĂ€r. 

In dieser Zeit kam sie in Kontakt mit Statistik, einem Fach, das sie wie viele andere anfangs nicht spannend fand. Aber es war die Bayesian Statistik, die ihr Interesse weckte und sie promovierte ĂŒber Belief Networks (= Bayesian Network).

Carr betont, dass es (ihr) wichtig ist, verschiedene mathematische Bereiche zusammenzubringen. So können Ideen besser ausgetauscht werden und man findet am Ende die beste Lösung.

Ihre Firma entwickelte ein Analyse- und Business-Intelligence-Tool. Mit Algorithmen des maschinellen Lernens sagt das Tool etwa das Vorhandensein von WohnungsschĂ€den durch KĂ€lte, Feuchtigkeit und Schimmel auf Adressebene voraus. Das spart Zeit und Ressourcen. Damit lassen sich Instandhaltungsmaßnahmen fĂŒr den Wohnungsbestand priorisieren. Was erhebliche Kosten und Aufwand spart.

Nur wenige Klicks zeigen, welche Wohnungen ein hohes Risiko aufweisen. ZeitaufwÀndige Erhebungen vor Ort oder der Einsatz von Sensoren sind nicht mehr erforderlich.

===========================================

Wer den Satz von Bayes (= die Formel) korrekt haben will, bitte sehr:

Der Satz von Bayes ist eine Formel, mit der man die bedingte Wahrscheinlichkeit berechnen kann. Die bedingte Wahrscheinlichkeit ist die Chance, dass ein Ergebnis eintritt, wenn ein bestimmtes vorheriges Ergebnis unter Àhnlichen UmstÀnden gegeben ist.

Der Satz wurde in den Papieren des englischen presbyterianischen Pfarrers und Mathematikers Thomas Bayes entdeckt und 1763 posthum veröffentlicht.

P(A|B) = P(B/A)P(A) / P(B)  

That’s it.

Der ZĂ€hler ist die Wahrscheinlichkeit des Ereignisses B bei Ereignis A multipliziert mit der Wahrscheinlichkeit, dass Ereignis A allein eintritt.

——————————————

Break. Break.

Die EinfĂŒhrung zu Sophie Carrs Vortrag (Die „Presidential Address for Mathematics“) hielt Dr. Martin Dominik. Der Deutsche, der an der University of St Andrews in Liverpool lehrt, war mir schon bei einem anderen Vortrag aufgefallen: Ein Mann, der ein Hemd mit solchem Muster („Pattern“) trĂ€gt, muss etwas mit Mathe oder zumindest Naturwissenschaft am Hut haben. Bingo!

In bester Laune (v. l.n.r.): Dr Ivo Siekmann, School of Computer Science and Mathematics, Liverpool John Moores University, Dr. Martin Dominik ist Dozent an der School of Physics & Astronomy der UniversitÀt von St. Andrews und stehend Chris Lintott, Professor of Astrophysics in the Department of Physics at the University of Oxford.

©alle Bilder FuZ, Inhalt der 2 Folien:

Zur Übersicht aller BeitrĂ€ge zum British Science Festival 2024

https://flugundzeit.blog/statistik-bayes-theorem-ki/

#BayesTheorem #ChrisLintott #HelgaKleisny #IvoSiekmann #MartinDominik #Statistik

British Science Festival 24

Das British Science Festival (BSF) ist eines der traditionsreichsten Wissenschaftsfestivals in Europa, das jedes Jahr in einem anderen Teil des Vereinigten Königreichs abgehalten wird. Es zeigt der


FlugundZeit

N-gram language models are quite simple and approximate the probability of a sequence of words in a language by applying the Bayes Rule for conditional probabilities, the Markov Assumption for simplifying complexity, and the Maximum Likelihood Estimation to approximate probabilities from frequency counts in a corpus.

lecture slides: https://drive.google.com/file/d/1NkFexo9gxlZVkBR7XWKcOJMJiaX4GPG1/view?usp=drive_link

#nlp #llm #languagemodel #BayesTheorem #ise2024 #dh @fiz_karlsruhe @lysander07 @sourisnumerique @enorouzi @shufan

Everything Is Predictable: How Bayesian Statistics Explain Our World by Tom Chivers, 2024

A captivating and user-friendly tour of Bayes's theorem and its global impact on modern life from the acclaimed science writer and author of The Rationalist's Guide to the Galaxy.

@bookstodon
#books
#nonfiction
#probability
#BayesianStatistics
#BayesTheorem

-- The net effect of ignoring, or downplaying, priors and only working in two-hypothesis problems is to sweep these sorts of complexities under the rug. --
(from @bblais)
https://bblais.github.io/posts/2024/Jan/22/a-poor-introduction-to-bayesian-reasoning/

#BayesTheorem #reasoning #IntelligentDesign #creationism #apologetics

A poor introduction to Bayesian Reasoning · bblais on the web

Engines of Our Ingenuity 2864: Bayes’ Theorem

Episode: 2864 The theorem of Reverend Bayes. Today, let’s talk about uncertainty and an 18th-century Presbyterian minister.

Read More >>

#BayesTheorem #probabilisticComputation #uncertainty

Engines of Our Ingenuity 2864: Bayes’ Theorem

Episode: 2864 The theorem of Reverend Bayes.  Today, let's talk about uncertainty and an 18th-century Presbyterian minister.

Houston Public Media
⏳ TODAY 6PM: âš›ïžđŸ˜¶â€đŸŒ«ïžđŸŽČ🧼 Join us for Dr @bblais Brian Blais' talk "What Does Probability have to do with God? Exploring Bayesian Reasoning in Theological Problems". Public, live in-person and online, free refreshments.
🔗 https://calendar.mit.edu/event/probability_and_god
-
#theism #probability #BayesTheorem #God #math #maths #mathematics #theology #MIT #students #events #CambridgeMA #Boston
âš›ïžđŸ˜¶â€đŸŒ«ïžđŸŽČ🧼 Probability and God

Probability theory is a branch of mathematics that deals with uncertainty, and how to reason about it. For Subject 12 our Course 0 series, in a talk titled "What Does Probability have to do with God? Exploring Bayesian Reasoning in Theological Problems", Dr Brian Blais will present a framework for rational inquiry based on probability theory. Dr Blais will explain the basic concepts and principles of probability, and how they can be applied to any domain of interest, including theology, the study of the nature of God and religious beliefs. He will explore some of the key theological concepts, such as belief, faith, miracles, and the existence of God, and how they can be analyzed using probability. He will also compare and contrast the scientific method with other ways of acquiring knowledge, such as revelation and intuition. His aim is to provide a clear and consistent way of thinking about these topics, and to reveal the hidden assumptions and implications of various theological arguments. Along the way, he will demonstrate some surprising and counterintuitive results that arise from probability theory, and how they can lead to errors in reasoning. WHEN: Wednesday, 2023/OCT/18, 6pm ET WHERE: 35-325 (3rd Floor, 127 Massachusetts Ave, https://whereis.mit.edu/?go=35 ) Free and open to the public. Presentation followed by audience Q&A. Free refreshments will be served after. The event will be photographed, recorded, and streamed. YouTube livestream: https://www.youtube.com/watch?v=zl9z-YbOg9E About our speaker: Dr Brian Blais is a professor of Science in the School for Health and Behavioral Sciences, Bryant University, Rhode Island. He has a PhD in Physics from Brown University, and for many years was a Visiting Professor in the Institute for Brain and Neural Systems, Brown University. His focus has been on computational and statistical methods applied to a wide range of fields such as the neuroscience of vision, paleoclimate, disease modeling, and most recently the textual properties of the New Testament. He has a personal interest in science education and maintains a blog at https://bblais.github.io where he explores the intersection of science and society, often dealing with issues in religious thought and pseudoscience. He is the author of the book "A Measure of Faith - Probability in Religious Thought". Speaker links: Website/Blog/Books/Links: https://bblais.github.io Twitter: https://twitter.com/bblais

MIT Events