Embedded-Multi-Time-of-Flight-Modul

PRODUKT NEWS SENSORIK

Becom Systems präsentiert seine neue Embedded-Multi-Time-of-Flight -Lösung. Die Multi-ToF-Plattform ist ein System für mehrere parallel arbeitende ToF-Sensoren mit einer zentralen Recheneinheit, basierend auf dem Deep Learning-fähigen Nvidia-Jetson-TX2-Modul mit Nvidia Pascal-GPU sowie Dual-Core Nvidia Denver 2 und Quad-Core ARM Cortex-A5 CPUs.



Die Plattform ermöglicht es, bis zu vier verschiedene Sensoren zu integrieren und in unterschiedlichen Konstellationen – etwa 2D- und 3D-ToF-Sensoren – zu kombinieren. Prinzipiell kann jedoch jegliche bildgebende Sensorik integriert werden.

 

Die Multi-ToF-Plattform besteht aus zwei Teilen: Dem ToF-Hub und dem ToF-Frontend. Der ToF-Hub enthält das Nvidia-Jetson-TX2-Modul und besitzt Anschlüsse für vier ToF-Sensor-Frontends. Das ToF- Frontend beherbergt die Beleuchtung und den Sensorchip. Die beiden Komponenten sind über eine zweiadrige serielle Verbindung verbunden – entweder über ein Coax- oder STP-Kabel (Shielded Twisted Pair) –, die auch die Stromversorgung des Frontends bereitstellt. Hierbei sind, je nach Anwendungsgebiet, auch Kabellängen von mehreren Metern realisierbar.

 

Das erste verfügbare ToF-Sensor-Frontend für die Plattform ist ein 55mm x 55mm Modul für die Erfassung des Nahbereichs und verfügt über eine 110-Grad-Weitwinkel-Optik und einen Sensor mit 320 x 240 Pixeln Auflösung.

 

Die Multi-ToF-Frontends liefern Rohdaten einer 3D-Szene, die mit dem integrierten ToF-Sensor und der Beleuchtung aufgenommen wurde. Sie sind dafür ausgelegt, die Pixeldaten im 12-Bit-Raw-Modus über einen FPD III-Serializer zum Cam-Hub zu streamen.

 

Als Programmier-Schnittstelle im Bereich Embedded Systems können Entwickler und Programmierer auf das Nvidia-Ecosystem zurückgreifen, das diverse Deep Learning-Tools wie TensorRT oder cuDNN, bietet.

Fachartikel