Мой личный Proof-of-Work. Как я майнил знания о блокчейне

Как обычный C++ разработчик решил разобраться с блокчейном — личный опыт создания простой реализации с нуля. Мини-история о том, что получилось, какие подводные камни встретились, и как эти знания можно применить в реальных проектах.

https://habr.com/ru/articles/920604/

#программирование #c++ #криптография #блокчейн #алгоритмы #распределенные_системы #разработка_под_linux #личный_опыт

Мой личный Proof-of-Work. Как я майнил знания о блокчейне

Помню тот вечер, когда мне в сотый раз пришла в голову мысль: "А не попробовать ли что-то действительно новое?". Сидя над очередным мердж-реквестом, я вдруг осознал — пора менять рутину. Но куда...

Хабр

Красно-чёрное дерево: полная реализация на C#

Что может заставить обратить внимание на красно-чёрные деревья , и как их реализовать? Статья ответит на оба эти вопроса. Бонусом будет показано, как на основе красно-чёрного сконструировать дерево интервалов .

https://habr.com/ru/articles/920390/

#программирование #алгоритмы #красночерное_дерево #net #c#

Красно-чёрное дерево: полная реализация на C#

Что может заставить обратить внимание на красно-чёрные деревья , и как их реализовать? Статья ответит на оба эти вопроса. Бонусом будет показано, как на основе красно-чёрного сконструировать дерево...

Хабр

Как я делал автопуть для игры на Phaser (TypeScript)

Всем привет! Сразу хочу сказать, что это не гайд, и я не рассказываю, как нужно кодить — просто хочу поделиться тем, что у меня получилось, и что я использовал в процессе разработки. Я не эксперт, и всё, о чём я пишу — это то, что сам прочитал и попробовал на практике. Моей основной задачей было сгенерировать сеточную карту и заставить персонажа искать кратчайший путь до точки, на которую я нажал, и двигаться к ней. Позже я добавил NPC с простым AI: они могут преследовать игрока, если тот находится рядом. В этой статье речь пойдёт только о построении пути. Для решения такой задачи мне понадобился алгоритм, как и для всех задач где есть работа с поиском чего либо. В моём случает мне не нужно было диагональное перемещение поэтому я использовал алгоритм A*. БУ, испугался, не бойся, я друг, я тебя...

https://habr.com/ru/articles/920366/

#phaser #phaserjs #phaser_3 #gamedev #алгоритмы #javascript #typescript

Как я делал автопуть для игры на Phaser (TypeScript)

Пролог Всем привет! Сразу хочу сказать, что это не гайд, и я не рассказываю, как нужно кодить — просто хочу поделиться тем, что у меня получилось, и что я использовал в процессе разработки. Я не...

Хабр

ARGUS: как масштабировать рекомендательные трансформеры

Привет! Меня зовут Кирилл Хрыльченко. Я руковожу командой, которая занимается R&D для рекомендательных технологий в Яндексе. Одна из наших основных задач — развивать трансформерные технологии в контексте рекомендательных систем, и мы активно занимаемся этим уже примерно пять лет. Не так давно у нас произошёл новый виток в развитии рекомендательных технологий, которым мы хотим поделиться с вами в этой статье. Актуальность рекомендательных систем в мире и для Яндекса обосновать несложно: количество контента растёт очень быстро, всё просматривать самостоятельно невозможно, поэтому для борьбы с информационной перегрузкой нужны рексистемы. Рекомендации музыки, фильмов, книг, товаров, видеороликов, постов, друзей — бо́льшая часть этого есть и у нас в Яндексе. При этом важно не забывать, что эти сервисы помогают не только пользователям, но и создателям контента, которым нужно искать свою аудиторию. Мы уже внедрили новое поколение рекомендательных трансформеров во множество сервисов — Музыку, Алису, Маркет, Лавку — и активно работаем над внедрением в другие. Везде получилось значительно улучшить качество рекомендаций. Если вы рекомендательный инженер — надеюсь, что после этой статьи у вас появятся идеи, как сделать что‑то похожее для вашей рекомендательной системы. А если вы пользователь рекомендаций — то у вас есть возможность побольше узнать о том, как работает та самая рекомендательная система.

https://habr.com/ru/companies/yandex/articles/919058/

#ml #recsys #рекомендательные_системы #алгоритмы

ARGUS: как масштабировать рекомендательные трансформеры

Привет! Меня зовут Кирилл Хрыльченко. Я руковожу командой, которая занимается R&D для рекомендательных технологий в Яндексе. Одна из наших основных задач — развивать...

Хабр

Когда O(n) мешает отбирать резюме в Росатоме

Главная проблема поиска сотрудников — предвзятость. Порой кажется, что наше резюме подходит под свою роль на 100 %, а рекрутер отклоняет его. Проблема с противоположной стороны баррикад: рекрутер должен отсмотреть по 200, 300 и более резюме в день. По разным данным, на каждое уходит всего лишь 6–10 секунд. А что если можно решить эти две проблемы с помощью ML? Сделать модель, которая исключит любой байес и поможет рекрутеру объективно отбирать подходящих кандидатов (где «подходящесть» обусловлена красивой математикой!). Мы это сделали. Оказалось, что если вы хотите добиться непредвзятости, то вам придётся внести в систему предвзятость. Оксюморон в статистике! Что мы увидели: Женатые и замужние — в топе: пока вы не уходите глубоко в анализ, этот быстрый фактор повышает ранг. Чем точнее ваша модель, тем меньше его вес. Английский — плохо: знание английского почему-то работало как антипаттерн, снижая релевантность. ОГУРЕЦ: кто-то зачем-то написал это слово в резюме. Оно попало в словарь модели и получило большой вес. Иксель — люди пишут Excel как угодно, и само слово в правильном написании оказалось снижающим оценку. К резюме может быть приложено много мусора. Самый эпичный пример: авиабилет Москва — Челябинск вместо резюме. Но давайте начну с начала.

https://habr.com/ru/companies/greenatom/articles/917546/

#автоматизация_бизнеспроцессов #анализ_данных #алгоритмы #искусственный_интеллект #hr #персонал #автоматизация #Bert #машинное_обучение #обучение_нейросетей #метрики #базы_данных

Когда O(n) мешает отбирать резюме в Росатоме

Главная проблема поиска сотрудников — предвзятость. Порой кажется, что наше резюме подходит под свою роль на 100 %, а рекрутер отклоняет его. Проблема с противоположной стороны баррикад: рекрутер...

Хабр

Фундаментальные вопросы по ML/DL, часть 1: Вопрос → Краткий ответ → Разбор → Пример кода. Линейки. Байес. Регуляризация

У каждого наступает момент, когда нужно быстро освежить в памяти огромный пласт информации по всему ML. Причины разные - подготовка к собеседованию, начало преподавания или просто найти вдохновение. Времени мало, объема много, цели амбициозные - нужно научиться легко и быстро объяснять , но так же не лишая полноты! Обращу внимание, самый действенный способ разобраться и запомнить - это своими руками поисследовать задачу ! Это самое важное, оно происходит в секции с кодом. Будет здорово получить ваши задачи и в следующих выпусках разобрать! Взглянуть на старое под новым углом

https://habr.com/ru/articles/918438/

#machine_learning #data_science #python #scikitlearn #mlинтервью #svm #naive_bayes #регуляризация #линейная_регрессия #алгоритмы

Фундаментальные вопросы по ML/DL, часть 1: Вопрос → Краткий ответ → Разбор → Пример кода. Линейки. Байес. Регуляризация

У каждого наступает момент, когда нужно быстро освежить в памяти огромный пласт информации по всему ML. Причины разные - подготовка к собеседованию, начало преподавания или просто найти вдохновение....

Хабр

Похож ли ваш текст на ИИ?

Я пользуюсь ИИ при написании текстов. Честно говоря, не считаю это чем-то плохим, потому что, по моему мнению, главное — это то, ради чего текст пишется: если читатель узнал что-то новое, то цель достигнута. Но, к сожалению, статья, написанная ИИ, выглядит скучной, гладкой и, несмотря на любую идею внутри, вызывает у читателя отторжение. Поэтому сегодня в этой теме я задался вопросом, какие паттерны говорят о том, что текст писал ИИ, а не человек, и почему человеку эти паттерны не нравятся? Всё это, конечно, субъективно. Например, я определяю по ощущениям: где-то к третьему абзацу статьи просто понимаю, что это писал ИИ. Вежливый «ЧатГПТ», брызжущий метафорами (чаще поверхностными) «Дипсик», логичный до наивности «Клод», оптимистичный «Грок» — разницы нет. ИИ и всё. Итак, сегодня моя цель формализовать паттерны среднего чистого (без промптов) ИИ и сделать промпт, который позволит определить то, насколько заданный текст похож на творчество ИИ. Почему не определить автора? Потому что я знаю людей, которые пишут, как ЧатГПТ-мини: реально гладкий, поверхностный текст, никаких резких поворотов и углублений. И знаю, как может писать ИИ под хорошим промптом. Так что давайте я просто попытаюсь определить наиболее распространенные паттерны моделей, которые можно выделить в тексте.

https://habr.com/ru/companies/timeweb/articles/916954/

#искуственный_интеллект #промпт #timeweb_статьи #gtp #grok #нейросети #обучение_нейросети #chatgpt #алгоритмы

Похож ли ваш текст на ИИ?

Я пользуюсь ИИ при написании текстов. Честно говоря, не считаю это чем-то плохим, потому что, по моему мнению, главное — это то, ради чего текст пишется: если читатель узнал что-то новое, то цель...

Хабр

Как я впервые столкнулся со связанными списками и не сдался

Я решил улучшить свои навыки алгоритмов перед собеседованиями и начал с простых задач. Всё шло гладко… пока не наткнулся на “Merge Two Sorted Lists” — нужно объединить два отсортированных связанных списка в один. В статье делюсь тем, как я разобрался в этой структуре данных, решил задачу и что вынес из этого опыта. Для новичков однозначно будет полезно!

https://habr.com/ru/articles/917218/

#leetcode #алгоритмы #структуры_данных #задачи #задачи_для_собеседований #связанный_список #linkedlist #обучение #обучение_программированию

Как я впервые столкнулся со связанными списками и не сдался

Всем привет! Недавно я решил начать решать задачки на LeetCode. К этому я пришел, чтобы в будущем на собеседованиях не ударить в грязь лицом и уверенно справляться хотя бы с базовыми задачами на...

Хабр

Не пузырьком единым. Поговорим об алгоритмах сортировки

Если спросить любого, хоть немного знакомого с ИТ человека, какие алгоритмы сортировки он знает, то самым популярным ответом будет, конечно, сортировка методом пузырька. Однако в реальности это, конечно, не единственный способ сортировки. В этой статье мы поговорим о том, какие алгоритмы сортировки бывают и как их можно реализовать на Python.

https://habr.com/ru/companies/otus/articles/911968/

#sorting #алгоритмы #алгоритмы_сортировки #python

Не пузырьком единым. Поговорим об алгоритмах сортировки

Если спросить любого, хоть немного знакомого с ИТ человека, какие алгоритмы сортировки он знает, то самым популярным ответом будет, конечно, сортировка методом пузырька. Однако в реальности это,...

Хабр

Переменное подкрепление: как алгоритмы управляют нашим вниманием и что с этим делать

Наверняка вы когда-нибудь замечали, как трудно оторваться от залипания в шорт видео или от прокручивания алгоритмической ленты. И это не случайность, так работает система подкрепления нашего мозга. Предлагаю разобраться в её механиках, почему она настолько эффективна, как перестать быть ее жертвой и начать использовать в свою пользу. Поехали. Что вообще такое переменное подкрепление? Это механизм, при котором награда за выполненное действие приходит нерегулярно и непредсказуемо. Смоделируем, я решил публиковать видео на YouTube, первое набрало 500 просмотров, второе – 1 500, третье – 600, четвертое — вдруг 2 400. Такой нелинейный рост будет выступать непредсказуемой наградой и мотивировать меня дойти не до 2 400, а уже, например, до 3 500 просмотров. Если бы рост шел «лесенкой» (500, 600, 700…), мотивация бы со временем перестала расти из-за предсказуемости награды. Система подкрепления помогает фиксировать связь между действием и результатом. Сделал X → это привело к результату Y → нужно продолжать делать X. А переменное подкрепление помогает более устойчиво закрепить эту связь. Все дело в дофамине, который отвечает за ожидание награды и помогает мозгу обучаться на основе результата. Когда результат превышает ожидания, мозг регистрирует так называемую ошибку предсказания и дофаминовый сигнал возрастает, а за ним закрепляется поведение, которое привело к успеху. Предсказуемые награды, в свою очередь, вызывают гораздо меньший отклик, потому что мозг их уже «учел». Откуда же взялась система подкрепления мозга?

https://habr.com/ru/articles/916458/

#система_подкрепления #мозг #биология #дофамин #нейромедиаторы #внимание #алгоритмы #поведенческая_психология

Переменное подкрепление: как алгоритмы управляют нашим вниманием и что с этим делать

Наверняка вы когда-нибудь замечали, как трудно оторваться от залипания в шорт видео или от прокручивания алгоритмической ленты. И это не случайность, так работает система подкрепления нашего мозга....

Хабр