🎶 TweetyBERT parses canary songs to better understand how brains learn language

https://techxplore.com/news/2026-03-tweetybert-parses-canary-songs-brains.html

#birds #birdsong #llm #ai #research #ornithology #bert #canary

TweetyBERT parses canary songs to better understand how brains learn language

A new machine learning model, TweetyBERT, automatically segments and classifies canary vocalizations with expert-level accuracy, offering a scalable platform for neuroscience, providing insights into the neural basis of how the brain learns and produces language, and offering potential applications for understanding animal vocalization more broadly. The study by University of Oregon researchers appears in the journal Patterns.

Tech Xplore
Rentner sollen die kritische Infrastruktur in Sachsens bewachen

Das Konzept eines Dresdner Stadtrates sieht ein Netz von 20.000 menschlichen Sensoren zum Schutz der Versorgungsnetzwerke vor. Im Ehrenamt.

DieSachsen.de - News aus Sachsen

Macht es nicht wie ich, verpasst nicht unseren Vortrag zu BERTopics und Keyness!

Heute in der Session "Automatisierung und KI" ab 9:00 (aber unseren Vortrag erwischt ihr auch noch, wenn ihr um 10 Uhr kommt!) im Hörsaal 5.

@cnDuKeli und Julia Röttgermann sprechen über: "Keyness Measures und BERTopic kombiniert: Eine Distinktivitätsanalyse von Subgenres des französischen Romans".

#DHd2026 #Keyness #Topics #TopicModeling #BERT

(Ich sitze leider schon im Zug, aber schön wars mit euch!)

@perspektivbrocken

@thomasrenkert weiß bestimmt etwas zu berichten, der arbeitet in der Lehrerbildung (richtig?) und hat den ParzivAI Assistenten entwickelt: https://agki-dh.github.io/pages/webinar/page-9.html / https://hse.hypotheses.org/6066.

An Raschkas Building LLMs from Scratch hab ich auch schon gedacht, das wurde ja schon erwähnt. Es gibt im Netz Code dazu (https://github.com/rasbt/LLMs-from-scratch) und ein paar Leute, die ihre Erfahrungen damit/darum herum posten, z.B. https://www.gilesthomas.com/llm-from-scratch . https://huggingface.co/blog/gszauer/minimal-llm und https://readmedium.com/how-to-build-an-llm-from-scratch-8c477768f1f9 sind auch gut. Alles Englisch halt.

Wenn es nicht so sehr ums selber bauen sondern auch um Erklärungen geht, sind glaube ich die Videos von Andrej Karpathy (z.B. https://youtu.be/7xTGNNLPyMI?si=-YlKsMGuBnW5GO44 oder https://youtu.be/zduSFxRajkE?si=M-cYkZVX6N8M-Oxy ) oder von Thomas Wolf (https://youtu.be/2-SPH9hIKT8?si=IV-hyIaYCYi-dQTZ) ganz gut. https://youtu.be/LPZh9BOjkQs?si=uxW_igUPN92C6wg2 auch.

Und ich finde ja so "Simulationen" auch sehr hilfreich: https://www.soekia.ch/gpt.html / https://bbycroft.net/llm / https://poloclub.github.io/transformer-explainer/

#LLM #AI #Explainer #Transformer #GPT #BERT

DHd-AG Angewandte Generative KI in den Digitalen Geisteswissenschaften (AGKI-DH)

The Applied Generative AI in Digital Humanities (AGKI-DH) working group focuses on exploring and showcasing the applications of generative AI, especially Large Language Models (LLMs), in digital humanities. This includes both commercial and open-source models, recognizing the significant advancements and the widespread discussion on AI issues like bias, hallucination, high computational footprint, data security, and potential destructive capabilities. Amidst these challenges, the group aims to harness the opportunities in AI development for digital humanities, fostering an ongoing exchange on core AI concepts and practical experiences. It seeks collaboration with other groups on greening (AI footprint), digital humanities theory, and empowerment (ethical aspects). The goals include identifying, assessing, and categorizing generative AI applications in digital humanities, establishing best practices, developing evaluation criteria, facilitating discussions and knowledge exchange, and balancing opportunities and risks.

2/2

Jetzt noch n’ #Kaffee und was aus der #Mottenkiste. Was haltet ihr von #Cindy und #Bert? Gibt ein wenig #Schwung und manchen ein #Lächeln (-:

https://www.youtube.com/watch?v=1nA9SJC2bgc&list=RD1nA9SJC2bgc&start_radio=1

Bleibt senkrecht und gesund!

Der Hund Von Baskerville (Paranoid) (2025 Remaster)

YouTube
#dwr #freetube #fedibikes #MdRddG #NI #MdRzA #obob #fahrrad #FahrradStattPorsche #frostpendeln

#TousledCraneonTour

#Welt! Bist du noch da?

Ein wenig
#Farbe im winterlichen #Garten

Und es gibt wieder
#Neuschnee, was niemand nie erwartet hätte. Die #Temperaturen liegen bei ca -2°C, leichter #Wind aus #Ost.
Also wieder
#Schneefegen statt #Radfahren. Dafür treffe ich mich mit meiner #Fahrerin wieder am angestammten #Treffpunkt.

Jetzt noch n’
#Kaffee und was aus der #Mottenkiste. Was haltet ihr von #Cindy und #Bert? Gibt ein wenig #Schwung und manchen ein #Lächeln (-:

https://www.youtube.com/watch?v=1nA9SJC2bgc&list=RD1nA9SJC2bgc&start_radio=1

Bleibt senkrecht und gesund!
Neues Ampelmännchen: Jetzt mischt auch die Sesamstraße mit

In Hamburg regeln künftig an zwei Ampeln Ernie und Bert den Verkehr.

inside digital

Трёхстрочный Deep Learning: 20 примеров нейросетевой магии

В 2012 году AlexNet потряс мир — тысячи строк кода, две видеокарты, недели обучения. Сегодня вы превзойдёте его одной строкой, а модель загрузится за секунды. В статье — 20 полностью рабочих примеров глубокого обучения, каждый ровно в три строки Python. Анализ тональности, резюмирование текста, вопросно-ответные системы, генерация текста, перевод, NER. Детекция объектов, сегментация, оценка глубины, поиск изображений по описанию. Мультимодальные модели, которые отвечают на вопросы о картинках. Это не упрощение и не обман. За тремя строками скрываются модели с миллиардами параметров: BERT прочитал всю Википедию, GPT-2 обработал 40 ГБ текста, CLIP просмотрел 400 миллионов пар «картинка-описание». Всё это знание теперь доступно через один вызов функции. Никакой дополнительной подготовки данных, никаких конфигурационных файлов, GPU не требуется. Скопируйте код — и получите результат, на который ещё пять лет назад ушли бы недели. Те же модели прямо сейчас работают в production у Netflix, Google и тысяч стартапов. К концу статьи вы освоите 20 техник, покрывающих большинство задач NLP и компьютерного зрения — и каждая уместится в твит.

https://habr.com/ru/articles/986782/

#нейросети #deep_learning #transformers #BERT #GPT #компьютерное_зрение #NLP

Трёхстрочный Deep Learning: 20 примеров нейросетевой магии

В 2012 году команда из Торонто потрясла мир компьютерного зрения: их нейросеть AlexNet распознавала объекты на фотографиях лучше любого алгоритма, написанного вручную. Код занимал тысячи строк,...

Хабр

W-what do you mean there’s a big blue monster behind me?? Like Herry Monster?!

#actionfigurephotography #sesamestreet #bert #ernie #neca