Как я учил компьютер понимать 122 000 фотографий — и почему сложностью оказались не нейронки, а слова

Я крайне редко на фрилансе получал заказы связанные с DS/ML, специалистов для таких задач обычно ищут не там. Причины разные: они требуют долгой интеграции, заказчик сам не понимает задачу, DS более конфиденциален, DS часто возникают внутри продукта, да и в последнее время этот сегмент на фрилансе съедается при помощи LLM: AI integration, RAG боты например. Но, внезапно, мне в личку постучались с таким проектом.

https://habr.com/ru/articles/1010932/

#computer_vision #machine_learning #clip #embeddings #классификация_изображений #zeroshot_learning #уменьшение_размерности_данных #фриланс #продуктовая_разработка #onnx

Как я учил компьютер понимать 122 000 фотографий — и почему сложностью оказались не нейронки, а слова

Как я вообще туда попал Я крайне редко на фрилансе получал заказы связанные с DS/ML, специалистов для таких задач обычно ищут не там. Причины разные: они требуют долгой интеграции, заказчик сам не...

Хабр
Windows App SDK 2.0 release notes - Windows apps

Provides information about what's new in Windows App SDK 2.0.

Ultralytics (@ultralytics)

Ultralytics v8.4.22가 출시되었습니다. 이번 릴리스는 Huawei Ascend NPU 지원 추가, ONNX 및 TensorRT 내보내기 보안성 향상, 다중 GPU DDP 분산 학습의 신뢰성 개선 등을 포함합니다. YOLO 관련 워크플로우에서 NPU 가속 및 모델 변환/배포 안정성이 향상되어 연구·개발과 실운영 환경에서 활용도가 높아집니다.

https://x.com/ultralytics/status/2033171683045937444

#ultralytics #yolo #onnx #tensorrt #npu

Ultralytics (@ultralytics) on X

Ultralytics v8.4.22 is here 🚀 Huawei Ascend NPU support, safer ONNX/TensorRT exports, and more reliable multi-GPU DDP training ⚡ #Ultralytics #YOLO #AI https://t.co/0XxsGsHtNO

X (formerly Twitter)

Oracle AI DB 26aiが高精度EmbeddingモデルのONNXインポートに対応したので試してみた (23.26.1 新機能)
https://qiita.com/ssfujita/items/bc5860e558acef135a22?utm_campaign=popular_items&utm_medium=feed&utm_source=popular_items

#qiita #oracle #Database #ONNX #ベクトル検索 #26ai

Oracle AI DB 26aiが高精度EmbeddingモデルのONNXインポートに対応したので試してみた (23.26.1 新機能) - Qiita

Oracle AI Database 26aiは RU23.4 の頃から、ONNXフォーマットでエクスポートされた埋め込みモデルのインポート機能を提供してきました。 本機能により、埋め込みモデルを提供する外部サービスを使わずとも、DB内でベクトル化ができます。 主にクラウド...

Qiita

inference4j: Java Inference API for Onnx models. Run AI models in Java. Three lines of code, zero setup.

#ai #inference #java #models #onnx

https://github.com/inference4j/inference4j

GitHub - inference4j/inference4j: Java Inference API for Onnx models

Java Inference API for Onnx models. Contribute to inference4j/inference4j development by creating an account on GitHub.

GitHub

Как я снизил WER с 33% до 3.3% для русской речи на CPU: сравнение GigaAM, Whisper и Vosk

За два месяца я перепробовал три ASR-движка, шесть моделей Whisper, адаптивное чанкование, T5-коррекцию и ансамблевое голосование — и большая часть идей оказалась тупиком. В статье — подробный разбор шести тупиков и одной находки: почему GigaAM от Сбера на обычном CPU показывает 3.3% WER на русском, обходя Whisper large-v3-turbo на RTX 4090 (7.9%) в 2.4 раза. С бенчмарками, кодом и честными оговорками.

https://habr.com/ru/articles/1002260/

#speechtotext #gigaam #whisper #vosk #onnx #распознавание_речи #WER #голосовой_ввод #ASR #python

Как я снизил WER с 33% до 3.3% для русской речи на CPU: сравнение GigaAM, Whisper и Vosk

Мне нужен был офлайновый голосовой ввод для Windows — push‑to‑talk, без облака, с хорошим распознаванием русского. Звучит просто? Я тоже так думал. За два месяца...

Хабр

Ускоряем инференс в Python с ONNX

Привет! Если у вас когда‑либо был опыт деплоя нейросетки, вы знаете, что обучение — это полдела, а вот добиться шустрого инференса — целое искусство. Часто обученная в PyTorch модель дает замечательные метрики, но стоит попытаться запустить её в приложении начинаются всякие проблемки. Одно из решений, которое часто выручает — ONNX и ONNX Runtime. Если эти буквы для вас пока ничего не значат — не беда, сейчас разберёмся что к чему. А если вы уже слышали про ONNX, то, возможно, задавались вопросом: «А реально ли ускорить инференс, заморочившись с этой технологией?» Еще как! Ускорить инференс

https://habr.com/ru/companies/otus/articles/991542/

#python #ONNX #инференс #ускорение_моделей #бенчмаркинг

Ускоряем инференс в Python с ONNX

Привет! Если у вас когда‑либо был опыт деплоя нейросетки, вы знаете, что обучение — это полдела, а вот добиться шустрого инференса — целое искусство. Часто обученная...

Хабр

v1 Of DoomSummarizer is out.
It's a crazy deep research / auto knowledgebase system. Point it at a directory of word docs, pdf and markdown it'll index it all then answer questions about the contents. Point it at a url it'll parse the content, index it and tell you what it's about.
Crawl your company's knowledgebase? It'll automatically become a support AI.

Want to know what your biggest invoice was, when you sent that angry letter etc...all local, all private, all open source (unlicense) . Quick two as unlike most RAG systems it MINIMIZES token use.

#llm #ai #rag #search #localllm #ollama #onnx https://github.com/scottgal/lucidrag/releases/

Releases · scottgal/lucidrag

A full RAG (Retrieval Augmented Generation) system featuring a low friction GraphRAG and conversational interface on documents. - scottgal/lucidrag

GitHub

Инференс нейросетевых моделей для табличных данных с помощью ONNX Runtime на C++

ONNX Runtime (ORT) — это высокопроизводительный движок для выполнения моделей в формате Open Neural Network Exchange (ONNX). Он предлагает оптимизированные реализации для CPU и GPU, поддержку различных аппаратных ускорителей и, что ключевое, простой C++ API. В этой статье мы разберем, как выполнить инференс модели для табличных данных, используя ONNX Runtime в C++ проекте. Ссылка для скачивания: Библиотеку можно получить через официальный GitHub (сборка из исходников). Для простоты в проектах часто достаточно забрать предсобранные бинарники из релизов .

https://habr.com/ru/articles/991430/

#onnxruntime #onnx #ORT #DL #TabularDL #C++ #инференс_моделей

Инференс нейросетевых моделей для табличных данных с помощью ONNX Runtime на C++

Развертывание нейросетевых моделей в production-среде — критически важный этап ML-пайплайна. Когда речь заходит о встраивании в C++ приложения (будь то высоконагруженные сервисы, desktop-софт или...

Хабр