От depth map* до нейросети: практический опыт создания аппаратного решения по измерению товаров на складе

В предыдущей статье мы рассказали об истории создания нашего измерительного устройства и о том, как появилась идея собственного решения. Во второй части мы сосредоточимся на технической стороне проекта: разберём алгоритмы измерения и инженерные решения, которые позволили добиться высоких точности и скорости замеров. Мы также поделимся опытом преодоления ключевых технических вызовов и расскажем, как пришли к текущему виду устройства.

https://habr.com/ru/companies/ozontech/articles/913334/

#разработка_под_ecommerce #машинное_обучение #машинное_обучение_и_нейросети #компьютерное_железо #видеотехника #карта_глубины #depth_map #stereovision #ml #mashinelearning

От depth map* до нейросети: практический опыт создания аппаратного решения по измерению товаров на складе

В предыдущей статье мы рассказали о том, как появилась идея собственного решения и об истории создания нашего измерительного устройства. Во второй части мы сосредоточимся на технической стороне...

Хабр

Алгоритм межкадровой разности на FPGA стереокамере

В этой статье я расскажу о продолжении работы над своим проектом стереокамеры на базе FPGA Gowin. В последней версии я добавил блок расчета попиксельной межкадровой разницы, используя встроенную в один корпус с FPGA SDR SDRAM память

https://habr.com/ru/articles/888408/

#fpga #gowin #openmv #micropython #Arduino #stereovision #робототехника

Алгоритм межкадровой разности на FPGA стереокамере

В этой статье я расскажу о продолжении работы над своим проектом стереокамеры на базе FPGA Gowin. В последней версии я добавил блок расчета попиксельной межкадровой разницы, используя встроенную в...

Хабр

Стереокамера машинного зрения c поддержкой ИИ на базе FPGA и Arduino Portenta H7

В статье рассмотрен процесс проектирования модуля стереокамеры на базе двух монохромных сенсоров MT9V034. Для управления матрицами и сшивания картинки с двух видеопотоков используется FPGA Gowin GW2AR. Использование FPGA и сенсоров с глобальным затвором позволило точно синхронизировать время экспозиции, таким образом сшитое изображение содержит два кадра, которые снимают объект в одно и то же время с наносекундной точностью. Модуль подключается в качестве «шилда» к промышленной отладочной плате Arduino Portenta H7. Комбинированный видеопоток обрабатывается библиотекой машинного зрения OpenMV на Arduino. Разработка проекта ведется в специализированной IDE от OpenMV на MicroPython, что позволяет быстро прототипировать устройства с использованием алгоритмов машинного зрения. После отладки камера работает автономно, весь код исполняется микроконтроллером на Arduino. В библиотеке OpenMV реализовано большое количество функций обработки изображений, от базовых преобразований и фильтров, до машинного обучения. Поддержка TensorFlow Lite позволяет обнаруживать объекты на стереопаре, сопоставлять их и рассчитывать расстояние до этих объектов. Так же в библиотеке реализованы функции построения карты глубин, что позволяет использовать разработанную камеру для реализации алгоритмов автономной навигации.

https://habr.com/ru/articles/874586/

#Arduino #stereovision #робототехника #fpga #gowin #micropython #openmv

Стереокамера машинного зрения c поддержкой ИИ на базе FPGA и Arduino Portenta H7

  Зачем все это На создание камеры меня подтолкнуло желание поработать с относительного новыми FPGA от компании Gowin, т.к. эти чипы недороги, имеют корпуса пригодные для ручного монтажа, и что...

Хабр

@kcase
You can also display stereo images on a regular screen 😊

Given @bdudney reminiscing about NeXT:

The first 3DKit app I wrote — within about half an hour of installing 3.0 — had two camera views looking at a shared scene from positions slightly separated on the x axis.

The scene was just a standard torus from the sample code, and I added a slider to rotate it.

Using cross-eyed fusion (see Freeviewing, https://en.wikipedia.org/wiki/Stereoscopy), I could see it in marvelous depth.

#NEXTSTEP
#StereoVision

Stereoscopy - Wikipedia

Random: When I had a working 3DTV, I made this Steam shortcut banner to toggle the stereoscopic 3D driver on my gaming/HTPC computer.

#PixelArt #Steam #3D #Stereoscopy #Stereovision #DoctorWho #nvidia

OAK-D Depth Sensing AI Camera Gets Smaller and Lighter

The OAK-D is an open-source, full-color depth sensing camera with embedded AI capabilities, and there is now a crowdfunding campaign for a newer, lighter version called the OAK-D Lite. The new model does everything the previous one could do, combining machine vision with stereo depth sensing and an ability to run highly complex image processing tasks all on-board, freeing the host from any of the overhead involved.

An example of real-time feature tracking, now in 3D thanks to integrated depth sensing.

The OAK-D Lite camera is actually several elements together in one package: a full-color 4K camera, two greyscale cameras for stereo depth sensing, and onboard AI machine vision processing with Intel's Movidius Myriad X processor. Tying it all together is an open-source software platform called DepthAI that wraps the camera's functions and capabilities together into a unified whole.

The goal is to give embedded systems access to human-like visual perception in real-time, which at its core means detecting things, and identifying where they are in physical space. It does this with a combination of traditional machine vision functions (like edge detection and perspective correction), depth sensing, and the ability to plug in pre-trained convolutional neural network (CNN) models for complex tasks like object classification, pose estimation, or hand tracking in real-time.

So how is it used? Practically speaking, the OAK-D Lite is a USB device intended to be plugged into a host (running any OS), and the team has put a lot of work into making it as easy as possible. With the help of a downloadable application, the hardware can be up and running with examples in about half a minute. Integrating the device into other projects or products can be done [in Python with the help of the DepthAI SDK](https://docs.luxonis.com/projects/sdk/en/latest/getting_started/#cookbook), which provides functionality with minimal coding and configuration (and for more advanced users, there is also a [full API](https://docs.luxonis.com/projects/api/en/latest/#welcome-to-depthai-gen2-api-documentation) for low-level access). Since the vision processing is all done on-board, even a Raspberry Pi Zero can be used effectively as a host.

There's one more thing that improves the ease-of-use situation, and that's the fact that support for the OAK-D Lite (as well as the previous OAK-D) has been added to a software suite called the Cortic Edge Platform (CEP). CEP is a block-based visual coding system that runs on a Raspberry Pi, and is aimed at anyone who wants to rapidly prototype with AI tools in a primarily visual interface, providing yet another way to glue a project together.

Earlier this year we saw the OAK-D used in a system to visually identify weeds and estimate biomass in agriculture, and it's exciting to see a new model being released. If you're interested, the OAK-D Lite is available at a considerable discount during the Kickstarter campaign.

#crowdfunding #digitalcamerashacks #aicamera #depthcamera #movidius #myriadx #oakd #opencv #raspberrypi #smartcamera #stereovision

OAK-D Depth Sensing AI Camera Gets Smaller And Lighter

The OAK-D is an open-source, full-color depth sensing camera with embedded AI capabilities, and there is now a crowdfunding campaign for a newer, lighter version called the OAK-D Lite. The new mode…

Hackaday