David Strohmaier

32 Followers
30 Following
46 Posts
Research Associate at the University of Cambridge.
InterestsNLP, Cognition, Philosophy
New blogpost! I put together notes on the Symbol Grounding Problem: https://dstrohmaier.com/Reflections-on-the-SGP/ #philosophyOfAI #NLP
Notes on the Symbol Grounding Problem » David Strohmaier

This post collects a set of notes on the Symbol Grounding Problem in the context of LLMs. In this context, the question is whether LLM systems have an approp...

New post on the assumptions guiding our theories of learning and language acquisition: https://dstrohmaier.com/Assumptions-About-Learning/ #NLP #philosophy #linguistics
Blog post on my two upcoming philosophy of AI talks: https://dstrohmaier.com/Two-Talks/ One talk will be heavy on #linguistics and #NLP, the other on social ontology. #AI #philosophy
Two Upcoming Talks on Philosophy and AI » David Strohmaier

I will give two talks about Philosophy and AI in the next few weeks (February 2025).

The ELM3 papers are online, including a paper on contrafactives I've written with Simon Wimmer: https://journals.linguisticsociety.org/proceedings/index.php/ELM/issue/view/194 #linguistics #philosophy
Vol. 3 (2025) | Experiments in Linguistic Meaning

New blog post on revisiting Plato's Politeia: https://dstrohmaier.com/Politeia/ #philosophy
Revisiting Politeia » David Strohmaier

Being sufficiently arrogant to provide a list of all time favourite books on my website, it behooves me to pay some thought to the books included on it. Thus...

First time in a while that I'll give a talk in German.
I'll speak at this event on AI and non-human entities at Heidelberg: https://philevents.org/event/show/125770 #AI #philosophy #philosophyofai
Künstliche Intelligenz und nicht-menschliche Entitäten: auf der Suche nach Synergien aus unterschiedlichen philosophischen Debatten

Symposium „Künstliche Intelligenz und nicht-menschliche Entitäten: auf der Suche nach Synergien aus unterschiedlichen philosophischen Debatten“ Datum: 20.-22. Februar 2025Hintergrund des Symposiums „Künstliche Intelligenz stellt uns vor neue Herausforderungen“ – so (oder ähnlich) lautet eine häufig geäußerte Diagnose in der gesellschaftlichen und ethisch-philosophischen Debatte rund um Künstliche Intelligenz (KI). Insbesondere Machine Learning (ML) und Large Language Modelle (LLM), aber auch antizipierte Formen einer generalisierten KI, werfen (vermeintlich neue) komplexe ethisch- philosophische Fragen auf, unter anderem hinsichtlich der Fähigkeit von KI zu eigenständigem Handeln (agency) und Urteilen, zur Selbstregulation oder gar Autonomie, des moralischen Status von KI, der Grenzen und Voraussetzungen von Verantwortungszuschreibung beim Einsatz von KI, oder auch des Vertrauens in KI – um nur einige zentrale Themenkomplexe zu nennen. Diese Fragestellungen sind in ihrer Ausrichtung und den argumentativen Grundlagen aber weder gänzlich neu, noch beschränken sie sich auf den Bereich der Technikphilosophie. Zum einen wurden ähnliche Debatten bereits in anderen Teilbereichen der Philosophie (und verwandter Disziplinen) in Bezug auf andere Entitäten geführt. Zu nennen wäre etwa in der Tierethik die Frage hinsichtlich des moralischen Status und der ethisch relevanten Eigenschaften von Tieren, in der Unternehmensethik die Frage hinsichtlich der Verantwortung und des Akteur-Status von Unternehmen, oder in der Philosophie der Biologie die Frage hinsichtlich der teleologischen Struktur von Organismen. Zahlreiche weitere Beispiele lassen sich anführen, unter anderem aus dem Bereich der Philosophie des Geistes, der Wirtschaftsethik, der Philosophie der Biologie, der Wissenschaftsphilosophie, oder auch der Rechtsphilosophie. Zum anderen ist der Blick auf weitere Entitäten und Teilbereiche der Philosophie auch deswegen relevant, da die Konzeptualisierung von KI notgedrungen Auswirkungen auf das Selbstverständnis des Menschen hat, ebenso wie auf die philosophische Abgrenzung und Konzeptualisierung weiterer Entitäten, wie etwa Tiere, Organismen, Unternehmen, sowie weitere natürliche, soziale, oder auch künstliche Systeme.Ziel des Symposiums Vor diesem Hintergrund möchte unser mehrtägiges Symposium der Frage nach übergreifenden, für die ethisch-philosophische Debatte rund um KI relevanten Analysen aus unterschiedlichen Teilbereichen der Philosophie nachgehen. Das Format richtet sich explizit an alle Teilbereiche der Philosophie und verwandte Disziplinen. Gemeinsam soll im Rahmen des Symposiums erforscht werden, wie Konzepte aus diesen Teilbereichen füreinander und insbesondere für die Debatte um KI genutzt werden können. Gegenstand der Beiträge aus unterschiedlichen Teilbereichen soll die philosophische Auseinandersetzung mit Eigenschaften und Konzepten verschiedener Entitäten, Systeme und Akteur*innen stehen, immer mit Fokus auf die Relevanz dieser Debatten und konzeptuellen Klärungen für die ethisch-philosophische Einordnung unterschiedlicher Formen von KI-Technologien. Aus diesem fach- und bereichsübergreifenden Austausch erhoffen wir wertvolle Beiträge zur KI-Debatte zu erschließen und zu verhindern, dass bereits geleistete begriffliche und argumentative Analysen in der Debatte um KI unnötigerweise wiederholt werden.Was die Teilnehmer*innen des Symposiums erwartet Das Symposium bietet allen Teilnehmer*innen die Möglichkeit ihre eigene Forschung zu den oben genannten Themenschwerpunkten im Rahmen eines Vortrages vorzustellen sowie mit anerkannten nationalen und internationalen Expert*innen aus unterschiedlichen Teilbereichen der Philosophie zu diskutieren und weiterzuentwickeln. Im Fokus des Symposiums steht der interaktive und intensive fachliche Austausch der Teilnehmer*innen über einen Zeitraum von drei Tagen. Wir begrüßen ausdrücklich die Bewerbung von Wissenschaftlicher*innen in frühen Karrierephasen. Ihre Fahrt- und Übernachtungskosten werden von uns übernommen. Wenn wir Ihr Interesse geweckt haben, schicken Sie bis zum 30. September 2024 einen Kurz-CV (u.a. fachlicher Hintergrund, Affiliation, akademischer Werdegang, Forschungsschwerpunkte) sowie einen Abstract (max. 2.500 Zeichen, inkl. Leerzeichen) mit dem Themenschwerpunkt, den Sie im Rahmen des Symposiums vorstellen und diskutieren möchten an folgende E-Mail-Adresse: [email protected]. Bei Rückfragen können Sie sich wenden an [email protected] oder [email protected] Wir freuen uns auf Ihre Themenvorschläge! Herzlichen Gruß, Nadia Primc, Raphael Brähler, Ines Schröder

Upcoming event at which I will talk about my research on how neural models learn contrafactives (with Simon Wimmer): https://philevents.org/event/show/125150 #philosophy #NLP4philosophy
How we do (not) talk about mistaken beliefs

The lexica of natural languages abundantly feature morphologically simple predicates that denote attitudes by which people get things right, for instance factive predicates like know. Yet, as far as we know, they do not regularly feature contrafactive predicates that denote attitudes by which people get things wrong. Indeed, it even remains an open question whether there are any morphologically simple predicates at all that mirror the truth-presupposition or entailment attested with know by having a falsity-presupposition or entailment. Cross-linguistic work has discussed a number of candidate contrafactive predicates (in Cantonese, Daakie. Dutch, German, Kipsigis, Mandarin, Spanish, Tagalog, Taiwanese Southern Min, Turkish, and Washo), but the data collected so far is insufficient to assess whether a no-contrafactive-universal is plausible. To address this, this workshop brings together researchers that are collecting or have collected relevant data from the world’s languages. A second open question is how the difference in the frequency of the two kinds of predicates can and should be explained. This question is not only relevant to linguists, but also to philosophers, as some explanations have significant linguistic and philosophical implications. Proposals that have been explored range from ontological explanations that predict a categorical difference (for instance that there are no suitable entities, ‘contrafacts’, for the complements of contrafactive predicates to denote) to learnability-based explanations that predict a mere difference in degree (e.g., that contrafactive predicates are harder to learn). But the explanations currently on offer still face difficult questions concerning their details and empirical coverage, and it even remains to be seen whether we should give a unified explanation or instead rely on a bunch of different factors. The second aim of this conference will thus be to compare existing explanations, to discuss alternatives that might improve on them, and what, if any, philosophical and linguistic implications follow from the best available explanations. Confirmed speakers Madeline Bossi (independent)Lelia Glass (Georgia Tech)Emily Hanink (Indiana University)Richard Holton (University of Cambridge)Mora Maldonado (University of Nantes)William McGregor (Aarhus University)Tom Roberts (Utrecht University) & Deniz Özyildiz (University of Konstanz)Thorsten Sander (University of Duisburg-Essen)David Strohmaier (University of Cambridge) & Simon Wimmer (HHU Duesseldorf)Kilu von Prince (HHU Duesseldorf)

My end of year post about the experience of working with transformer LMs: https://dstrohmaier.com/End-of-Year-2024/ #AI #nlproc #philosophy
End of 2024: Transformers and Transformation » David Strohmaier

2024 was my year of training Transformer Language Models (LMs). The hours I spent on building, training and debugging my models!

"LLMs, Symbol Grounding, and other Problems" --- put up a short blog post responding to a recent EMNLP paper on whether LLMs face the Symbol Grounding Problem: https://dstrohmaier.com/SGP-Pragmatism/ #philosophy #AI
LLMs, Symbol Grounding, and other Problems » David Strohmaier

To my surprise, the recent 2024 EMNLP conference included multiple papers with a philosophical angle. One of them attracted my attention in particular: “Pra...