VisionLab
Manten seguro tu negocio con VisionLab
VisionLab permite un rápido desarrollo de todas las características de las aplicaciones visuales del equipo para la industria de seguridad, científica y otras aplicaciones. También incluye transformación de líneas, detección de contornos y bordes, reconocimiento de rostros y objetos, funciones robustas y components para detección y seguimiento de movimientos.
Esta aplicación incluye: Captura y detección de movimiento captura y seguimiento de movimiento de objetivos en vídeo, detecta contornos y objetos en video, adquisición de datos en tiempo real, control de procesos, inteligencia artificial, análisis de señales, análisis de señales digitales, análisis de vídeo, visualización de datos,instrumentación viual y mucho más…
VisionLab incluye un complete conjunto de componentes de captura de video. Soporta las antiguas API Win32 (Video para Windows VFW, WaveAPI, Audio ACM), el novedoso DirectShow, e incluso una mezcla de ellos si lo necesitas. El desarrollador puede escoger entre cualquiera de ellos, usar todos o puede pasar de uno a otro en cualquier momento. Los componentes ocultan la complejidad de todos los enfoques y ofrecen una utilización más práctica y similar.
Lista completa de tecnologías soportadas
Win32 API:
- Video para Windows ( VFW )
- Gestor de compresor de audio ( ACM )
- WaveAPI
DirectX:
- DirectShow
Intel:
- Intel MMX
- Intel Performance Primitives ( IPP )
Las librerías incluyen componentes de detección de movimiento, componentes Hough Lines y Circles, detectores de extremos Canny y Adaptive Threshold, detectores de rostros y objetos, componentes de búsqueda y seguimiento de objetos, componentes con funcionalidades robustas, muestreo de vídeos, rendiración de vídeo DirectShow, un PAI Win32 y componentes de captura de vídeo DirectShow.
También incluye un número adicional de componentes como SignalLab y AudioLab, están incuidos para permitir el procesamiento del audio.
> Deseo más información VisionLab
Dejar un comentario
¿Quieres unirte a la conversación?¡Siéntete libre de contribuir!