Optimización de analíticas de video con IA para minimizar falsas alarmas
Derechos de autor: TECNOSeguro

Optimización de analíticas de video con IA para minimizar falsas alarmas

En el ámbito de la seguridad electrónica, la inteligencia artificial (IA) ha revolucionado la videovigilancia mediante el uso de analíticas avanzadas que permiten mejorar la detección, clasificación y respuesta ante eventos en tiempo real. Sin embargo, para maximizar la precisión y minimizar los falsos positivos o negativos, es esencial optimizar la configuración y el entrenamiento de estos sistemas. En esta nota, exploraremos estrategias clave para mejorar la efectividad de las analíticas de video con IA en entornos de seguridad. 

Las falsas alarmas han sido un problema recurrente en la videovigilancia tradicional, generando costos innecesarios, fatiga operativa y respuestas ineficientes de los equipos de seguridad. Gracias a los avances en modelos de deep learning, la IA permite diferenciar eventos reales de situaciones irrelevantes, mejorando la eficiencia operativa y optimizando la toma de decisiones en tiempo real.

En esta nota cubrimos este tema teniendo en cuenta: 

¿Por qué se generan falsas alarmas en los sistemas de videovigilancia?

pro falsas alarmas 1Fuente: tecnoseguro.com

Los sistemas tradicionales de videovigilancia basados en reglas simples presentan limitaciones que afectan su precisión. Entre las principales causas de falsas alarmas se incluyen:

  • Cambios en la iluminación: Variaciones de luz pueden activar sensores de movimiento.
  • Sombras y reflejos: Pueden confundirse con la presencia de intrusos.
  • Condiciones climáticas: Lluvia, nieve o niebla pueden generar alertas erróneas.
  • Fauna y vegetación en movimiento: Animales y ramas pueden activar los sensores sin representar una amenaza real.
  • Errores en configuraciones: Sensibilidades mal calibradas generan detecciones incorrectas.

Los sistemas sin IA no cuentan con la capacidad de interpretar el contexto de las imágenes y terminan generando alarmas innecesarias.

Técnicas avanzadas de IA para reducir falsas alarmas

Modelos de Deep Learning para Análisis de Video

  • Redes neuronales convolucionales (CNN): Identifican patrones en imágenes y videos para reconocer objetos y reducir falsos positivos.
  • Modelos de detección de anomalías: Algoritmos de aprendizaje no supervisado detectan comportamientos inusuales sin necesidad de definir reglas preprogramadas.

La siguiente imagen ilustra el proceso de una CNN de izquierda a derecha, se alimenta el algoritmo con imágenes y videos durante el proceso de entrenamiento. 

pro falsas alarmas 2Fuente: tecnoseguro.com

En este proceso, la red neuronal se compone de varias capas, cada una de las cuales procesa y transforma la información de entrada de manera progresiva y compleja. A medida que la información pasa a través de las diferentes capas, la red neuronal aprende a identificar patrones y características relevantes en los datos para determinar si estos corresponden a un humano o no, y su porcentaje de asertividad.

Filtrado y clasificación de eventos

  • Uso de metadatos: Permite categorizar eventos con información adicional sobre la escena.
  • Diferenciación de objetos y movimientos: La IA puede distinguir entre humanos, vehículos y animales para evitar falsas alertas.

Procesamiento en el borde para decisiones en tiempo real

  • Edge Computing: El procesamiento de video en dispositivos locales reduce la latencia y mejora la rapidez en la detección.
  • Aplicaciones en seguridad perimetral y entornos urbanos: Sistemas en aeropuertos, estaciones de tren y grandes complejos industriales pueden beneficiarse de una toma de decisiones más eficiente.

Implementación y mejores prácticas para Integradores

Para garantizar una correcta implementación de IA en videovigilancia, los integradores deben considerar:

  • Selección de hardware adecuado: Uso de cámaras y servidores con capacidad de procesamiento para IA.
  • Entrenamiento de modelos personalizados: Adaptación de los algoritmos según el entorno específico de aplicación.
  • Calibración continua: Ajuste periódico de parámetros para optimizar la precisión.
  • Retroalimentación manual: Supervisión humana para mejorar la efectividad de los modelos mediante aprendizaje activo.

Calidad de los datos de entrenamiento

La eficacia de cualquier sistema de IA depende en gran medida de los datos con los que ha sido entrenado. En videovigilancia, esto significa utilizar datasets diversos y representativos de las condiciones del entorno en el que operarán las cámaras. Para mejorar el rendimiento:

  • Se deben entrenar los modelos con imágenes en diferentes condiciones de iluminación y clima.
  • Incluir variaciones en ángulos de visión, distancias y resoluciones.
  • Evitar sesgos en los datos, asegurando la inclusión de escenarios realistas y relevantes.

Configuración adecuada de las cámaras

Para que la IA pueda realizar análisis efectivos, las cámaras deben estar correctamente ubicadas y configuradas. Algunos aspectos clave incluyen:

  • Resolución y calidad del video: Una mayor resolución permite una mejor identificación de detalles clave.
  • Iluminación y exposición: Evitar reflejos y asegurar una iluminación homogénea.
  • Campo de visión y ángulo de captura: Garantizar que la zona de interés esté correctamente encuadrada.
  • Velocidad de cuadros (FPS): Ajustar según el tipo de actividad a analizar, evitando valores muy bajos que puedan omitir eventos críticos.

Optimización de los algoritmos de detección

Las analíticas de IA deben estar ajustadas para ofrecer el mejor balance entre sensibilidad y precisión. Algunas estrategias incluyen:

  • Uso de zonas de interés: Reducir el análisis a áreas específicas en la imagen para evitar distracciones por elementos irrelevantes.
  • Filtrado de eventos: Evitar alarmas innecesarias ajustando criterios de detección para personas, vehículos u objetos.
  • Aprendizaje continuo: Algunas plataformas permiten reentrenar los modelos con nuevos datos para mejorar su precisión con el tiempo.

Reducción de falsos positivos y negativos

Un falso positivo ocurre cuando el sistema identifica erróneamente una amenaza o evento cuando en realidad no lo hay. Un sistema de detección de movimiento envía una alerta de intrusión porque interpreta la sombra de un árbol moviéndose como una persona. Una cámara con detección de personas genera una alarma porque un objeto inanimado con forma similar (como un maniquí) es mal identificado como un humano.

El impacto en la en la videovigilancia de los falsos positivos son:

  • Mayor número de alertas irrelevantes, lo que puede generar fatiga en los operadores y aumentar la probabilidad de que ignoren alertas reales.
  • Mayor consumo de ancho de banda y almacenamiento, ya que se pueden registrar eventos innecesarios.
  • Incremento en costos operativos, porque los equipos de seguridad pueden perder tiempo respondiendo a eventos que no son amenazas reales.

Ahora bien, un falso negativo ocurre cuando el sistema no detecta una amenaza real o evento importante, como una persona real cruzando una zona restringida que no es detectada porque la IA la confundió con un objeto inofensivo, o el algoritmo no estaba bien entrenado, o un sistema de reconocimiento facial que no identifica correctamente a una persona buscada por la policía porque la imagen está parcialmente oculta.

Impacto en la videovigilancia de los falsos negativos:

  • Riesgos de seguridad elevados, ya que eventos importantes pueden pasar desapercibidos.
  • Falta de evidencia en incidentes críticos, lo que puede dificultar investigaciones posteriores.
  • Pérdida de confianza en el sistema, lo que podría llevar a reemplazarlo o complementarlo con soluciones más costosas.

En el contexto de los sistemas de videovigilancia con análisis de video e inteligencia artificial, los conceptos de falso positivo y falso negativo son fundamentales para evaluar la precisión y confiabilidad de las alertas generadas.

Mitigación de falsos positivos y falsos negativos

Como vemos, los falsos positivos pueden derivar en respuestas innecesarias y pérdida de confianza en el sistema, mientras que los falsos negativos pueden significar fallos en la detección de amenazas reales. Ambos errores pueden comprometer la efectividad de un sistema de videovigilancia, por lo que su reducción es clave para mejorar la seguridad y la eficiencia operativa.

Los fabricantes de sistemas de videovigilancia utilizan varias estrategias para reducir estos errores, tales como:

  • Ajustar umbrales de detección para minimizar alertas irrelevantes.
  • Aplicar técnicas de fusión de sensores, por ejemplo, combinar video con sensores de movimiento, reconocimiento de audio o la combinación de video + radar + audio para mejorar la precisión de las alertas.
  • Integrar algoritmos de validación secundaria que verifiquen los eventos antes de generar una alerta.
  • Utilizar modelos de IA más precisos con redes neuronales convolucionales (CNN) para mejorar la clasificación de objetos.
  • Realizar un entrenamiento continuo de los modelos con datos reales para adaptar la detección a escenarios específicos.
  • Implementar filtrado inteligente para descartar eventos irrelevantes antes de generar una alerta.

Implementación en entornos de edge computing

Para mejorar la eficiencia y reducir la latencia en la detección de eventos, se recomienda utilizar procesamiento en el borde (edge computing). Algunas ventajas clave son:

  • Reducción de la carga en servidores centrales al procesar datos localmente en las cámaras o dispositivos de borde.
  • Menor dependencia de la conectividad a la nube, lo que garantiza tiempos de respuesta más rápidos.
  • Mayor seguridad y privacidad al evitar la transmisión constante de imágenes sensibles a redes externas.

Mantenimiento y actualización continua de los modelos de IA

La efectividad de un sistema de videovigilancia con IA depende de su capacidad de adaptación a nuevas amenazas y condiciones del entorno. Para ello, es importante:

  • Actualizar los modelos de IA periódicamente con datos recientes para mejorar su precisión.
  • Monitorear el desempeño y ajustar configuraciones en base a reportes de eficacia.
  • Probar nuevas versiones de software para garantizar la compatibilidad y mejoras en el rendimiento.

Casos de uso y soluciones en el mercado

Algunos fabricantes han integrado IA en sus sistemas de videovigilancia para minimizar falsas alarmas, y es válido afirmar que algunas plataformas de videovigilancia basadas en inteligencia artificial (IA) permiten el reentrenamiento continuo de sus modelos con nuevos datos para mejorar su precisión a lo largo del tiempo. Este proceso, conocido como aprendizaje continuo o incremental, es esencial para que los sistemas de videovigilancia se adapten a entornos cambiantes y reduzcan la incidencia de falsas alarmas.

Ejemplos de plataformas con capacidades de reentrenamiento

  • Axis Communications: Este reconocido fabricante, uno de los líderes de la industria, ha destacado la importancia del entrenamiento específico y continuo de los modelos de IA en sus soluciones de videovigilancia. Según Axis, las analíticas basadas en IA se sustentan en la utilización de redes neuronales y en el entrenamiento específico y continuo de los modelos, lo que requiere una gran cantidad de datos para conseguir algoritmos precisos y eficientes.
  • Hanwha Vision: La serie de cámaras Wisenet con IA de Hanwha Vision incorpora algoritmos de deep learning que permiten mejorar la precisión en la detección y clasificación de objetos. Estas cámaras están diseñadas para aprender y adaptarse continuamente, mejorando su rendimiento con el tiempo.
  • ISID: Esta empresa española desarrolla soluciones integrales para el procesamiento y análisis de video, integrando módulos de análisis de IA, como biometría facial y reconocimiento de objetos. Sus productos, como Videoma Intelion, están diseñados para adaptarse y mejorar continuamente mediante el procesamiento de nuevos datos.

Estas plataformas demuestran cómo el reentrenamiento continuo de modelos de IA en los sistemas de videovigilancia es una práctica implementada para mejorar la precisión y adaptabilidad de las soluciones de seguridad. 

Ejemplos de cámaras con aprendizaje personalizado

Existen cámaras de videovigilancia equipadas con inteligencia artificial (IA) que permiten a los usuarios entrenarlas para reconocer objetos o situaciones específicas, adaptándose así a necesidades particulares. Esta capacidad de aprendizaje personalizado mejora la precisión y la eficacia de los sistemas de seguridad.

BOSCH

pro falsas alarmas 3Fuente: tecnoseguro.com

Bosch ofrece modelos de cámaras de videovigilancia que permiten a los usuarios personalizar el análisis de video mediante aprendizaje automático, adaptando las soluciones a necesidades específicas. Una de las funcionalidades destacadas es Camera Trainer, que permite a las cámaras aprender y reconocer objetos o situaciones específicas definidas por el usuario. Esta capacidad mejora la precisión en la detección y reduce falsas alarmas al adaptar el sistema a contextos particulares. 

Modelos destacados con aprendizaje personalizado:

  • AUTODOME 7100i (IR): Estas cámaras PTZ integran análisis de video basados en aprendizaje profundo, ideales para vigilancia urbana, supervisión del tráfico y detección perimetral a larga distancia. 
  • FLEXIDOME 5100i: Equipadas con Intelligent Video Analytics Pro (IVA Pro) basado en aprendizaje profundo, estas cámaras mejoran la seguridad en edificios y la eficiencia operativa, permitiendo la detección precisa de intrusiones y el recuento de personas en áreas concurridas. 
  • FLEXIDOME multi 7000i: Estas cámaras multisensor impulsadas por IA ofrecen vistas multidireccionales, adecuadas para gestionar diferentes escenarios de videovigilancia en ciudades, espacios públicos y comerciales. 

Estas soluciones de Bosch permiten a los usuarios entrenar las cámaras para reconocer objetos o situaciones específicas, adaptándose a las necesidades particulares de cada entorno y mejorando la eficacia de los sistemas de seguridad.

Axis Communications

pro falsas alarmas 4Fuente: axis.com

Las cámaras de Axis integran análisis avanzados basados en aprendizaje profundo, lo que permite una detección y clasificación más precisa de objetos y detalles en la escena. Esta tecnología mejora la seguridad y la eficiencia operativa desde su implementación. 

Ejemplos de modelos destacados:

  • AXIS M1075-L Box Camera: Esta cámara compacta y fácil de instalar ofrece audio bidireccional y una excelente calidad de imagen. Está equipada con analíticas avanzadas basadas en aprendizaje profundo en local, lo que permite a los usuarios personalizar las funcionalidades de la cámara según sus necesidades específicas. 
  • AXIS P1467-LE Bullet Camera: Este modelo ofrece una excelente calidad de imagen y analíticas avanzadas basadas en aprendizaje profundo en local. Es ideal para diversos escenarios de vigilancia y permite a los usuarios adaptar las funcionalidades de la cámara a contextos específicos. 

Hanwha Vision

pro falsas alarmas 5Fuente: hanwhavision.com

Hanwha Vision ha desarrollado WiseDetector, una función basada en aprendizaje automático que permite a los usuarios entrenar cámaras de vídeo para detectar nuevos tipos de objetos. Esta herramienta ofrece la flexibilidad de adaptar las cámaras a necesidades específicas, mejorando la precisión y reduciendo falsas alarmas. 

Implementación de WiseDetector:

Los usuarios pueden utilizar WiseDetector para entrenar modelos de aprendizaje automático directamente en las cámaras de Hanwha Vision. Esto se realiza proporcionando ejemplos de los objetos o situaciones que se desean detectar, lo que permite que la cámara aprenda y reconozca estos elementos en tiempo real. Esta capacidad de personalización es especialmente útil en entornos donde es crucial detectar objetos o comportamientos específicos.

Conclusión 

El uso de IA en el análisis de video está transformando la seguridad electrónica al reducir falsas alarmas y mejorar la eficiencia operativa. Gracias a técnicas avanzadas como el deep learning y el edge computing, los sistemas pueden diferenciar eventos críticos de situaciones irrelevantes, minimizando costos y optimizando la seguridad.

Optimizar las analíticas de video basadas en IA en los sistemas de seguridad electrónica es un proceso que involucra desde la calidad de los datos de entrenamiento hasta el mantenimiento continuo de los modelos. Una correcta implementación y ajuste de estas tecnologías permite maximizar la precisión de la detección de eventos, mejorar la capacidad de respuesta y garantizar un sistema de seguridad eficiente. Para empresas e integradores, adoptar estas tecnologías representa una ventaja competitiva que les permite ofrecer soluciones más precisas y confiables.

Jairo Rojas Campo

Ing. Electrónico de la Pontificia Universidad Javeriana, especialista en Gerencia de Proyectos, con experiencia como líder de gestión de proyectos en varias empresas reconocidas del gremio de seguridad en el país desde el 2001. Cuenta con múltiples certificaciones en seguridad electrónica en las líneas de CCTV, sistemas de alarmas de intrusión, detección de incendio, controles de acceso, plataformas de integración entre otras.

Actualmente realiza actividades orientadas a la transferencia de su conocimiento y experiencia a equipos de trabajo del sector, realiza diseño y especificación de proyectos. Apasionado por el ciclismo de ruta y ciclo montañismo.

Artículos relacionados

Sobre TECNOSeguro

TECNOSeguro es la publicación on-line líder en audiencia para las industrias de las tecnologías de la seguridad de habla hispana. Una completa guía con información clave para profesionales de seguridad y TI, integradores, instaladores, consultores y distribuidores.

 

Redes Sociales:

NUESTROS BOLETINES INFORMATIVOS

Manténgase actualizado con las últimas tendencias y tecnologías de la industria de la seguridad. Regístrese gratuitamente para recibir nuestros boletines en su bandeja de email.

Regístrese Gratis