Sehen wir uns morgen in der Lunch Break @ 4Memory Incubator Funds?

Von 12:30 bis 13:30 Uhr stellen das Deutsche Bergbau-Museum Bochum & Koordinationsstelle für Provenienzforschung in NRW die nächsten beiden 4Memory Incubator Funds Projekte vor, seid gespannt!

Teilnehmen ist ganz einfach, ohne Voranmeldung über BBB: https://bbb.rlp.net/rooms/ttu-ktp-njp-kmb/join

#NFDI #NFDIrocks #NFDI4Memory #IncubatorFunds #LunchBreak #FDM #provenienzforschung #Bergbaumuseum #MaschinellesSehen #PythonPackage

Incubator Funds 2025

Learn using BigBlueButton, the trusted open-source web conferencing solution that enables seamless virtual collaboration and online learning experiences.

Die Magie adversarieller Bilder: Wenn dein Gehirn 'Katze' sagt, aber es eine Vase ist - KINEWS24.de

Die Magie adversarieller Bilder: Wenn dein Gehirn 'Katze' sagt, aber es eine Vase ist

KI NEWS24
Beipackzettel zu den Workshops in Buchen und online - Popup Labor

An dieser Stelle erhalten Sie die "Beipackzettel" zu den einzelnen Workshops in einem Satz...

Popup Labor
Emmy Noether-Förderung der @[email protected] für @[email protected]: Informatiker-Team will maschinelles Sehen zuverlässig machen. http://uni-freiburg.link/emmy-noether-kortylewski #EmmyNoether #Informatik #MaschinellesSehen
Emmy Noether-Förderung der DFG für Adam Kortylewski — Hochschul- und Wissenschaftskommunikation

Informatiker-Team will maschinelles Sehen zuverlässig machen

Deep-Learning-Algorithmen, die sich am menschlichen Sehen orientieren, verbessern die digitale Bildverarbeitung und -rekonstruktion in der Medizin. Maschinelles Sehen: Der Cortex als Blaupause
Maschinelles Sehen: Der Cortex als Blaupause

Deep-Learning-Algorithmen, die sich am menschlichen Sehen orientieren, verbessern die digitale Bildverarbeitung und -rekonstruktion in der Medizin.

Bis Ende des Jahres sollen Computer bei der Jagd auf IS-Kämpfer in Syrien und im Irak die Bilder der Drohnenkameras so auswerten können, dass sich IS-Kämpfer oder verdächtige Aktivitäten erkennen lassen und dann auch Angriffe gestartet werden können. Ein weiterer Schritt zum autonomen Kampfroboter, auch wenn hier noch erst "nur" um das schnelle Erkennen und Klassifizieren geht, was aber schwieriger ist, als ein einmal ausgemachtes oder bestimmtes Ziel automatisch zu verfolgen und zu beschießen. Zudem ist Maschinenlernen für Prozesse, an deren am Ende das Abfeuern von Waffen stehen wird, gleich ob ein Mensch oder ein Roboter abdrückt, ein bedenkliches Vorgehen, wenn das System Falsches lernt und sich dies nicht mehr nachvollziehen oder abtrainieren lässt. Und wenn alles auch noch ganz schnell gehen muss, wird es noch bedenklicher.

Man könne, so Shanahan, der für das Projekt verantwortlich ist, das Problem nicht lösen, indem man mehr Menschen als Bild-Analysten für einsetzt. Nach Beschreibungen ist es eine extrem anstrengende Tätigkeit, über Stunden mehrere Bildschirme zu beobachten, um Ziele auszumachen, die dann womöglich mit Raketen der Drohne beschossen werden. Man müsse dies smarter machen, da die Analysten von der Bilderflut überwältigt würden und die meiste Zeit nur "gewöhnliche, administrative Aufgaben erledigen, die mit dem Starren auf Videos verbunden sind".
https://www.heise.de/tp/features/Das-Pentagon-forciert-algorithmische-Kriegsfuehrung-3714650.html https://www.heise.de/tp/features/Das-Pentagon-forciert-algorithmische-Kriegsfuehrung-3714650.html #Maschinenlernen #Pentagon #maschinellesSehen