Story Points не работают? И другие мифы про оценку задач, в которые мы почему-то верим

Про Story Points можно услышать что угодно. На одной конференции спикер всерьёз говорил: «Story Points — это плохо. Не используйте их вообще. Плохая практика». Но почему столько хейта? Неужели всё действительно так плохо? Или дело не в Story Points, а в том, как именно их используют? Меня зовут Семён, я тимлид в МТС Аналитике, бывший Java-разработчик, сертифицированный Scrum Master и преподаватель курса по Java в МФТИ. Веду блог. За годы работы много раз видел, как команды мучаются с оценками задач. В этой статье расскажу, за что критикуют оценки, чем отличаются человеко-часы от футболок и Story Points, когда их стоит применять — а когда лучше не мучиться и попробовать NoEstimates. И почему отношение к Story Points столь неоднозначно.​ Будет и про типовые ошибки, и про работающие подходы — чтобы планировать задачи без лишней боли. Спойлер: идеального способа оценки задач не существует. Зато есть вполне рабочие способы не сойти с ума и при этом нормально планировать работу.

https://habr.com/ru/companies/oleg-bunin/articles/908522/

#story_points #noestimates #черный_лебедь #критерии_оценки #антипаттерны #scrum

Story Points не работают? И другие мифы про оценку задач, в которые мы почему-то верим

Про Story Points можно услышать что угодно. На одной конференции спикер всерьёз говорил: «Story Points — это плохо. Не используйте их вообще. Плохая практика».  Но почему столько хейта? Неужели...

Хабр

[Перевод] Почти все бенчмарки для измерения ИИ — ужасны. Колонка MIT Technology Review

Многие из наиболее известных тестов для оценки работы моделей искусственного интеллекта устарели или недостаточно продуманы. Когда появляется новая модель искусственного интеллекта, её обычно рекламируют как лучшую по результатам тестов. Например, модель GPT-4o от OpenAI была представлена в мае с результатами, которые показали, что её производительность превосходит другие модели искусственного интеллекта в нескольких тестах. Однако проблема в том, что эти тесты плохо продуманы, их результаты сложно воспроизвести, а используемые в них метрики часто не имеют чёткого определения. Это было отмечено в новом исследовании. Это важно, потому что оценки моделей искусственного интеллекта по этим показателям будут определять уровень их проверки и регулирования.

https://habr.com/ru/articles/861970/

#ии #бенчмарки #ai #llm #критерии_оценки #искусственный_интеллект

Почти все бенчмарки для измерения ИИ — ужасны. Колонка MIT Technology Review

Многие из самых популярных бенчмарков для моделей ИИ устарели или плохо разработаны. Дисклеймер : это вольный перевод  статьи  издания MIT Technology Review. Перевод подготовила редакция...

Хабр