Bogota desarrolla inteligencia artificial para prevenir crímenes

La Universidad Nacional de Colombia y la Secretaría de Seguridad de la capital se alían para buscar los patrones que hay detrás de los delitos
Policía de Bogotá

Educar a las máquinas para que predigan crímenes no es una idea futurista, es un proyecto real en el que han comenzado a trabajar en la capital colombiana, Bogotá (8.000.000 de habitantes), la Universidad Nacional de Colombia (UN), la Secretaría de Seguridad, Convivencia y Justicia y la empresa de matemática aplicada Quantil. El principio del que parte este proyecto es la existencia de patrones detrás de estos crímenes, y estos son los que intentarán dilucidar los expertos en un primer lugar.

“Una vez se identifiquen los patrones, podríamos utilizarlos para entender mejor las dinámicas subyacentes, y eventualmente, poder anticiparnos a la ocurrencia de los crímenes y su percepción”, ha asegurado el profesor Francisco Gómez, del Departamento de Matemáticas de la UN.

El modelo matemático, cuyo protocolo científico esperan comenzar a mediados de año y que será implementado dentro de 30 meses, estará enfocado en cuatro fenómenos: homicidios, daños al patrimonio con uso de violencia, riñas y lesiones personales, y miedo al crimen. Aunque este último no se trata de un crimen sirve para entender las dinámicas de percepción que tiene la gente acerca de la seguridad en la ciudad, ha precisado Gómez.

“La idea es construir un modelo de naturaleza predictiva para cada uno de esos componentes, es decir que nos permita anticiparnos a la ocurrencia: cuándo, dónde, quién y, eventualmente, por qué”, ha detallado el profesor, quien ha afirmado además que “existen condiciones sociales, económicas, geográficas y hasta biológicas, entre otras, que pueden influenciar la ocurrencia de un delito”.

Para poder extraer este patrón de criminalidad, la Secretaría de Seguridad ha comenzado a reunir datos de la línea de emergencias 1,2,3 de la capital, que recibe alrededor de 15.000 llamadas al año y del sistema de información de delitos de la Policía Nacional, según ha explicado Lorena Caro, directora de Análisis de la Información y Estudios Estratégicos de dicha secretaría.

Otros datos a los que pretenden acceder son los obtenidos a partir de las propias cámaras de vigilancia –cuyas imágenes se analizarán con inteligencia artificial–, los obtenidos de encuestas como Bogotá Cómo Vamos y de la Cámara de Comercio. Asimismo, Twitter servirá para obtener información sobre la percepción que tiene la gente sobre su seguridad, ha afirmado Caro, y ha añadido que la ubicación de los equipamientos de la ciudad (como el TransMilenio, los hospitales o los colegios) son datos relevantes a tomar en cuenta.

El proyecto cuenta con cerca de 3.800 millones de pesos (cerca de un millón de euros), 3.000 millones provienen del Fondo de Ciencia, Tecnología e Innovación, del Sistema General de Regalías y los 800.000 restantes de las tres instituciones, de acuerdo con Caro. El 70 % de este dinero se invertirá en recursos humanos. “Es puro conocimiento… No es una inversión en infraestructura”, ha asegurado. Con ello, el Gobierno de Bogotá apuesta por una acción “más preventiva que reactiva frente al crimen”.

Combatir los sesgos racistas

El machine learning utilizado para prevenir delitos es algo cada vez más utilizado por los sistemas de seguridad en el mundo. Mientras que la policía británica anunció a finales de año su plan para predecir delitos graves antes de que ocurran, China empezó a hacerlo hace casi dos años. En Estados Unidos, uno de los problemas detectados en un algoritmo utilizado desde 1998 llamado COMPAS, que calcula las posibilidades de un sujeto de reincidir en el futuro, fue el sesgo racista que le hacía equivocarse especialmente en contra de los ciudadanos negros.

Para evitar caer en sesgos racistas, el profesor de la UN ha explicado que tendrán precaución en que los datos de entrada sobre los cuales buscan los patrones tengan un sesgo mínimo, que buscarán construir estrategias para entender y minimizar el sesgo, y que trabajarán con los expertos en seguridad, y la ciudadanía en general, para entender las limitaciones y compromisos asociados al uso de esta tecnología.

“Muchos de los sesgos que las máquinas aprenden están en nuestros sistemas sociales. Si queremos que las máquinas no aprendan estos patrones, la mejor solución es cambiar como sociedad buscando migrar a sistemas de seguridad y convivencia más justos”, ha opinado Gómez.

Deja un comentario

Especiales

Ajustes
Innovación española

A través del presente Panel de Configuración, puede aceptar o rechazarlas en su totalidad o puede seleccionar qué tipo de cookies quiere aceptar y cuáles quiere rechazar.

Para obtener más información, acceda a nuestra Política de Cookies

Cookies técnicas

Las cookies técnicas que son estrictamente necesarias y permanecen siempre activas son para que el usuario acceda y navegue en INNOVASPAIN.COM.

Cookies de Preferencias o personalización

Utilizamos cookies de personalización que son aquellas que, tratadas por nosotros o por terceros, nos permiten recordar información para que el usuario acceda al servicio con determinadas características que pueden diferenciar su experiencia de la de otros usuarios.

Si desactivas esta cookie no podremos guardar tus preferencias. Esto significa que cada vez que visites esta web tendrás que activar o desactivar las cookies de nuevo.

Cookies Analíticas

Utilizamos cookies de análisis o medición que son aquellas que, tratadas por nosotros o por terceros, nos permiten el seguimiento y análisis del comportamiento de los usuarios de los sitios web a los que están vinculadas, incluida la cuantificación de los impactos de los anuncios.