We are hiring! SPecifically, a PostDoc for data management and connectomics as part of a large clinical research group. The details can be found here: https://www.linkedin.com/posts/epiconn_open-position-apply-now-the-epiconn-activity-7413211951125688320-Wqi5

Please apply if you are interested in up to four years in Vienna, one of the most liveable cities in the world!

#university #medicaluniversityofvienna
#research #vienna #austria #ismrm #mri #7Tesla #epilepsy #connectomics #data_management

**OPEN POSITION - APPLY NOW** The EPICONN Project is a new interdisciplinary Clinical Research Group combining clinical neuroscience, neuroimaging, and computational modelling to reveal network… | EPICONN

**OPEN POSITION - APPLY NOW** The EPICONN Project is a new interdisciplinary Clinical Research Group combining clinical neuroscience, neuroimaging, and computational modelling to reveal network mechanisms of epilepsy. It will develop cutting-edge machine learning and multi-modal data analytics methods to support clinical decisions for people with epilepsy. It will integrate imaging, EEG, genomics, and clinical data into robust prediction models for disease progression and treatment response. As a central position in EPICONN we are seeking a Postdoctoral Researcher to take a leading role in coordinating patient data-related research workflows and the translation of cutting-edge AI tools into clinical decision making, including multi-modal data integration and management and development of robust data acquisition and management strategies for EPICONN. Your Mission ➡️ Develop, oversee, and implement a project wide data management strategy, process and systems for multi-modal medical data ➡️ Translate research results to clinical tools, integrate research results into robust pipelines and tools that can be used in clinical settings ➡️ Interface closely with the Department of Neurology (DoN) for patient inclusion and study logistics. ➡️ Develop and implement Standard Operating Procedures (SOPs) for data acquisition, transfer, and quality control — with an emphasis on automation and reproducibility. ➡️ Ensure data readiness for multimodal modelling and AI-based analysis within the EPICONN consortium. ➡️ Lead efforts in data stewardship, harmonization, and model validation across imaging, electrophysiological, and behavioural datasets. ➡️ Contribute to the development of multimodal AI models and their preparation for clinical translation. Your Profile 🧠 PhD (or equivalent) in a field of biomedical engineering, computer science, medical informatics, neuroscience, or a related field. 🧠 Proven experience in imaging research or computational neuroscience (e.g., MRI, EEG), medical informatics or data acquisition/evaluation (BIDS standard, Neurodesk, etc.). 🧠 Strong skills in data management tools (e.g., REDCap, DataLad, Neurobagel). 🧠 Experience in Python and/or familiarity with AI / machine learning frameworks is a strong advantage. 🧠 Excellent communication, organizational, and collaborative skills. 🧠 Familiarity with hospital workflows, GCP principles, and research data privacy regulations. We Offer ➡️ A 4-year funded position (1-year trial + 3-year extension) within a cutting-edge interdisciplinary research environment. ➡️ Close collaboration with experts in neurology, medical imaging, AI, and clinical research. ➡️ Access to advanced computational infrastructure and mentorship for career and grant development. ➡️Potential for continued employment in EPICONN Phase 2. How to Apply - send your CV, motivation letter, and contact information for two references (in one PDF) to: [email protected] Application deadline: 20.01.2026

⏰ The clock is ticking — only 3 weeks left to register and submit talk ideas for #distribits2025 (deadline 01 May): https://distribits.live/.

We want to hear from YOU about the technologies for #distributed #data_management in your life. We also hope you’ll join us for a collaborative #hackathon to further network with other people who get excited about #rdm and #opendata. 😎

When? 🗓️ 23-25 October, 2025
Where? 📍 Düsseldorf, Germany (and online)
Cost? 💰 Nothing — it’s free!

@datalad #gitAnnex

distribits

Distribits is a community for enthusiasts of tools and workflows in the domain of distributed data.

distribits

Data Governance и Бизнес: как найти общий язык

«Data Governance — это дополнительная надстройка, которая увеличивает сложность и длительность процессов. Это тормозит бизнес!» «Нам нужны качественные данные, а вы все про свои процессы!» «Data Governance – это IT-шная история, пусть они и занимаются. Причем здесь бизнес?!» Эти фразы часто звучат, когда речь заходит о внедрении Data Governance. Бизнес и Data \ IT могут по-разному смотреть на роль DG: для команды управления данными это фундамент прозрачности и управления, а для бизнеса — дополнительные шаги, которые могут замедлять процессы. Но ведь цель Data Governance (DG) — не процесс ради процесса, а создание ценности для бизнеса за счёт качественных, управляемых данных. Почему же возникают разногласия? Из моего опыта можно выделить несколько ключевых факторов, которые влияют на восприятие DG в бизнесе: 1.Неочевидная связь между DG и бизнес-результатами. Если Data Governance не подкреплён показателями, влияющими на прибыль (P&L, снижение затрат, ускорение процессов), для бизнеса его сложно воспринимать как приоритетную задачу. 2.Бизнес хочет скорость, а не контроль. Как правило новые процессы и роли означают изменение привычных моделей работы, а это что требует времени и затраты энергии на адаптацию. Поэтому новые процессы начинают казаться бизнесу фактором, замедляющим их работу. 3.Долгий цикл внедрения. Когда DG запускается с прицелом на долгосрочную выгоду, интерес к DG снижается, так как бизнесу нужны быстрые результаты, бизнесу нужно решать задачи уже сегодня. Как же выстроить эффективный диалог между DG и бизнесом?

https://habr.com/ru/articles/899080/

#data_governance #data_management #data #управление_данными #data_quality #качество_данных #data_catalog #dwh

Data Governance и Бизнес: как найти общий язык

«Data Governance — это дополнительная надстройка, которая увеличивает сложность и длительность процессов. Это тормозит бизнес!» «Нам нужны качественные данные, а вы все про свои процессы!» «Data...

Хабр

Модерация: ручная, автоматическая или гибридная? Делимся опытом Data Light

А вы знали, что 55% бизнесов сталкиваются с убытками из-за мошенничества, вызванного плохим контролем публикаций? А о том, что 88% пользователей доверяют отзывам как личным рекомендациям, и, столкнувшись с фейковым контентом, редко возвращаются на платформу? Только налаженная система модерации способна предотвратить такие ситуации и обеспечить безопасный и качественный контент. Технологии предлагают автоматические решения для блокировки недопустимого контента, однако не всегда можно полагаться только на них. Почему крупные компании все еще предпочитают ручную или гибридную модерацию? Вадим Болотов объясняет, как выстроить правила модерации и выбрать оптимальный тип для вашего бизнеса.

https://habr.com/ru/companies/data_light/articles/878916/

#data_management #модерация #модерация_контента #модерация_сообществ #модерация_объявлений

Модерация: ручная, автоматическая или гибридная? Делимся опытом Data Light

А вы знали, что 55% бизнесов сталкиваются с убытками из-за онлайн-мошенничества, вызванного недостаточным контролем публикаций? А о том, что 88% пользователей доверяют отзывам как личным...

Хабр

Ускоряем запросы в PostgreSQL, оптимизируя оператор GROUP BY

Пользователи PostgreSQL нередко оперируют аналитическими запросами , при выполнении которых данные сортируются и группируются по разным правилам. За счёт оптимизации вычисления агрегатов и сортировок можно значительно сократить время и стоимость выполнения запросов. Об одной из таких оптимизаций — выборе порядка колонок в выражении GROUP BY — расскажем в этой статье. Postgres уже умеет перестраивать список группируемых выражений в соответствии с порядком колонок из условия ORDER BY , чтобы исключить дополнительную сортировку и сэкономить вычислительные ресурсы. Мы пошли дальше, реализовали свою идею в дистрибутивах Postgres Pro Standard и Enterprise и вынесли патчи на обсуждение сообщества Postgres ( первое и второе ) в надежде, что они войдут в ближайшую версию ванильного PostgreSQL.

https://habr.com/ru/companies/postgrespro/articles/852414/

#postgresql #sql #database_optimization #data_management #efficiency #оптимизация_запросов #сортировка_запросов

Ускоряем запросы в PostgreSQL, оптимизируя оператор GROUP BY

Пользователи PostgreSQL нередко оперируют аналитическими запросами , которые предполагают сортировку и группировку данных по разным правилам. Время и стоимость выполнения таких запросов можно...

Хабр
FBI's Flawed Data Handling: Security Risks Uncovered in Recent Audit - RedPacket Security

The FBI is exposing sensitive and classified data due to significant weaknesses in its inventory management and electronic storage media disposal, a recent

RedPacket Security

FineBI-g brother is still watching: как мы усовершенствовали мониторинг

Привет, Хабр! На связи BI-команда Tele2. Ранее мы уже рассказывали о нашем опыте перехода на Fine BI и подходе к анализу действий пользователей на платформе. В нашем случае мониторинг пользователей и объектов на платформе – вопрос жизненной необходимости. Fine BI пользуется популярностью у бизнес-пользователей, также мы активно развиваем подход self-service: лицензия Сreator предоставлена 300 сотрудникам, всего опубликовано около 400 дашбордов, а неопубликованных пользовательских ad-hoc дашбордов насчитывается несколько тысяч, доступ к платформе есть более чем у 2,5 тыс человек, а MAU стремится к 2000 пользователей. Под катом про то, как мы усовершенствовали объединение таблиц из FineDB и LogDB в один датасет, решили проблему потери логов из-за замены уже опубликованных дашбордов и углубили возможности мониторинга действий пользователей и взаимосвязей пользовательских действий с объектами.

https://habr.com/ru/companies/tele2/articles/778520/

#finebi #dashboard #visualization #dataset #data #data_management #data_storage

FineBI-g brother is still watching: как мы усовершенствовали мониторинг

Привет, Хабр! На связи BI-команда Tele2. Ранее мы уже рассказывали о нашем опыте перехода на Fine BI и подходе к анализу действий пользователей на платформе. В нашем случае мониторинг пользователей и...

Хабр
Three Easy Pieces on Schema Mappings for Tree-Structured Data
(2017) : Claire David and Filip Murlak
url: https://hal.archives-ouvertes.fr/hal-01778169/
#constraints #data_management #query #schema #schema_mappings
#my_bibtex
Three easy pieces on schema mappings for tree-structured data

Schema mappings specify how data organized under a source schema should be reorganized under a target schema. For tree-structured data, the interplay between these specifications and the complex structural conditions imposed by the schemas, makes schema mappings a very rich formalism. Classical data management tasks, well-understood in the relational model, once again become challenging theoretical problems. Recent results on non-mixing integrity constraints help to push the decid-ability frontier further for three such problems: consistency of mappings, membership in the composition of mappings, and query answering.