Jorge Oliver Prats, director general de Recepción y Control de Alarmas.
Jorge Oliver Prats Director general Recepción y Control de Alarmas

Inteligencia artificial en las CRA y la reducción de falsas alarmas

Inteligencia artificial

Estos últimos años, hemos visto como la denominada inteligencia artificial (IA) ha irrumpido en nuestro día a día en todos los aspectos y actividades que nos rodean, permitiéndonos minimizar errores, automatizar rutinas y, en definitiva, mejorar nuestra calidad de vida optimizando nuestros recursos, tiempo y eficacia. En nuestro sector, la aportación de la IA aplicada a la seguridad nos permite, gracias a la aplicación de algoritmos, aprendizaje de rutinas, historiales, casuísticas o sistemas de reconocimiento facial, optimizar los servicios que ofrecemos las centrales receptoras de alarmas (CRA) a los usuarios.

Nadie duda que la IA aplicada a las CRA permite optimizar los recursos humanos, automatizando y personalizando procedimientos para cada usuario, siempre dentro de los procedimientos establecidos por la normativa vigente de seguridad privada. Esta automatización se traduce en una mayor eficacia y eficiencia de cara al usuario, tratando de manera automatizada ciertas señales que ya no precisan de la intervención humana y disminuyendo los tiempos de respuesta y de carga de los operadores.

Los programas de gestión de alarmas nos permiten introducir los parámetros descritos en los procedimientos de verificación publicados, agilizando la gestión de los operadores, minimizando errores y priorizando las señales de alarma que tienen más posibilidad de ser reales, frente a otras que pueden producirse por una mera desconexión.

Falsas alarmas

Por otro lado, la IA es una herramienta imprescindible para el filtraje de las falsas alarmas en las CRA, que hoy en día siguen ofreciendo unos datos más que inquietantes y preocupan al sector de la seguridad privada y a las distintas Fuerzas y Cuerpos de Seguridad (FCS) competentes en España que, además, reciben un uso innecesario de recursos públicos.

Pero la introducción de la IA en nuestro día a día también conlleva un riesgo: la relajación, desatención y la dejación de la responsabilidad de la persona usuaria a favor del criterio de la IA. Sin ir más lejos, los manuales de nuestros vehículos, también dotados de IA, nos recuerdan en el apartado de apoyo a la conducción que “la activación del control de crucero no debe suponer bajar la atención en la conducción, prestando siempre atención a las condiciones del tráfico y de la carretera”.

Este mismo principio debe aplicarse a nuestra actividad como CRA y, sobre todo, a las personas usuarias de este tipo de servicios. Un ejemplo es la gestión de los operadores, para la que no se puede prescindir de la presencia humana dado que, aunque la IA es una ayuda, debe estar supervisada por el operador ya que las consecuencias de un fallo pueden ser nefastas.

Responsabilidad del usuario

Por otro lado, ya he comentado en distintos artículos que he publicado en esta revista que uno de los factores que causa mayor volumen de falsas alarmas es la propia persona usuaria del sistema de seguridad. La relajación, desatención y dejación de responsabilidades que anteriormente he citado se ven incrementadas cuando se le ofrece a la persona usuaria un sistema equipado con IA, puesto que puede entender que el sistema es lo suficiente inteligente y “baja la guardia”, confiando en que “todo va a ir solo”. Pero la IA simplemente es una ayuda para todas las partes actoras de un servicio de CRA: persona usuaria, empresa mantenedora y CRA.

Para un buen funcionamiento del servicio de CRA y para una disminución de las falsas alarmas (que, aunque hayan sido filtradas mediante los procedimientos de verificación vigentes, nos dan como resultante una alarma que se debe comunicar a las FCS) sigue siendo necesaria la colaboración, responsabilidad y predisposición de la persona usuaria.

La IA de la CRA puede detectar que el número de teléfono de un responsable lleva “x” veces sin responder cuando se realiza una llamada de verificación, creando la alerta a la CRA para que averigüe la vigencia de este. Pero cabe recordar que es responsabilidad de la persona usuaria contratante de un servicio de CRA tener actualizados los números de teléfono en la CRA, informando de los cambios, altas y bajas de la persona designada como responsable.

La inteligencia artificial simplemente es una ayuda para todas las partes actoras de un servicio de CRA

No considero descabellada la idea de que se introduzca normativamente, dentro de la realización de los mantenimientos preventivos y correctivos, la dedicación de unos minutos a revisar con la persona usuaria la vigencia de los teléfonos de responsables que facilitó en su momento a la CRA.

No obstante, apelando a la responsabilidad de los usuarios de los sistemas de seguridad conectados a una CRA, también hay que recordarles la importancia de que, además de ser vigentes los responsables y sus números de teléfono, tengan operativos los terminales móviles, incluso por la noche. No son pocas las veces que la CRA no puede contactar con ninguna de las personas responsables porque no atienden a las llamadas.

La IA tampoco puede sustituir a la responsabilidad de la persona usuaria cuando proporciona las llaves a otra persona sin facilitarle el código para el desarmado del sistema o la contraseña. Demasiado a menudo, la policía encuentra a trabajadores de una empresa a los que el titular de la instalación no les ha facilitado el código de la alarma y nadie ha atendido el teléfono.

¿La IA nos ayuda y aporta beneficios a nuestro servicio? Sí, sin duda. ¿Es la panacea? No, por supuesto.
De momento, aunque quizás se acabe desarrollando una IA que permita a la persona usuaria alejarse totalmente de sus responsabilidades como parte actora del sistema de seguridad, es imprescindible que dicho usuario sea responsable de su actuación, uso del sistema, mantenimiento de este, actualización de los teléfonos de los responsables, accesos, etcétera, por poner unos ejemplos.

Instrumentos jurídicos

Además, sería una aportación importante que la normativa de seguridad privada, que ya contempla la suspensión o desconexión de la CRA a requerimiento de la Delegación del Gobierno (en caso de falsas alarmas reiteradas, aunque confirmadas, según los actuales procedimientos de verificación, a parte de la vía sancionadora a las CRA), también aportase instrumentos jurídicos para que la CRA pudiese suspender o cancelar un servicio frente a la falta de responsabilidad, negligencia reiterada o mal uso del sistema de seguridad conectado a ella.