Bogota desarrolla inteligencia artificial para prevenir crímenes

La Universidad Nacional de Colombia y la Secretaría de Seguridad de la capital se alían para buscar los patrones que hay detrás de los delitos

Policía de Bogotá

Educar a las máquinas para que predigan crímenes no es una idea futurista, es un proyecto real en el que han comenzado a trabajar en la capital colombiana, Bogotá (8.000.000 de habitantes), la Universidad Nacional de Colombia (UN), la Secretaría de Seguridad, Convivencia y Justicia y la empresa de matemática aplicada Quantil. El principio del que parte este proyecto es la existencia de patrones detrás de estos crímenes, y estos son los que intentarán dilucidar los expertos en un primer lugar.

“Una vez se identifiquen los patrones, podríamos utilizarlos para entender mejor las dinámicas subyacentes, y eventualmente, poder anticiparnos a la ocurrencia de los crímenes y su percepción”, ha asegurado el profesor Francisco Gómez, del Departamento de Matemáticas de la UN.

El modelo matemático, cuyo protocolo científico esperan comenzar a mediados de año y que será implementado dentro de 30 meses, estará enfocado en cuatro fenómenos: homicidios, daños al patrimonio con uso de violencia, riñas y lesiones personales, y miedo al crimen. Aunque este último no se trata de un crimen sirve para entender las dinámicas de percepción que tiene la gente acerca de la seguridad en la ciudad, ha precisado Gómez.

“La idea es construir un modelo de naturaleza predictiva para cada uno de esos componentes, es decir que nos permita anticiparnos a la ocurrencia: cuándo, dónde, quién y, eventualmente, por qué”, ha detallado el profesor, quien ha afirmado además que “existen condiciones sociales, económicas, geográficas y hasta biológicas, entre otras, que pueden influenciar la ocurrencia de un delito”.

Para poder extraer este patrón de criminalidad, la Secretaría de Seguridad ha comenzado a reunir datos de la línea de emergencias 1,2,3 de la capital, que recibe alrededor de 15.000 llamadas al año y del sistema de información de delitos de la Policía Nacional, según ha explicado Lorena Caro, directora de Análisis de la Información y Estudios Estratégicos de dicha secretaría.

Otros datos a los que pretenden acceder son los obtenidos a partir de las propias cámaras de vigilancia –cuyas imágenes se analizarán con inteligencia artificial–, los obtenidos de encuestas como Bogotá Cómo Vamos y de la Cámara de Comercio. Asimismo, Twitter servirá para obtener información sobre la percepción que tiene la gente sobre su seguridad, ha afirmado Caro, y ha añadido que la ubicación de los equipamientos de la ciudad (como el TransMilenio, los hospitales o los colegios) son datos relevantes a tomar en cuenta.

El proyecto cuenta con cerca de 3.800 millones de pesos (cerca de un millón de euros), 3.000 millones provienen del Fondo de Ciencia, Tecnología e Innovación, del Sistema General de Regalías y los 800.000 restantes de las tres instituciones, de acuerdo con Caro. El 70 % de este dinero se invertirá en recursos humanos. “Es puro conocimiento… No es una inversión en infraestructura”, ha asegurado. Con ello, el Gobierno de Bogotá apuesta por una acción “más preventiva que reactiva frente al crimen”.

Combatir los sesgos racistas

El machine learning utilizado para prevenir delitos es algo cada vez más utilizado por los sistemas de seguridad en el mundo. Mientras que la policía británica anunció a finales de año su plan para predecir delitos graves antes de que ocurran, China empezó a hacerlo hace casi dos años. En Estados Unidos, uno de los problemas detectados en un algoritmo utilizado desde 1998 llamado COMPAS, que calcula las posibilidades de un sujeto de reincidir en el futuro, fue el sesgo racista que le hacía equivocarse especialmente en contra de los ciudadanos negros.

Para evitar caer en sesgos racistas, el profesor de la UN ha explicado que tendrán precaución en que los datos de entrada sobre los cuales buscan los patrones tengan un sesgo mínimo, que buscarán construir estrategias para entender y minimizar el sesgo, y que trabajarán con los expertos en seguridad, y la ciudadanía en general, para entender las limitaciones y compromisos asociados al uso de esta tecnología.

“Muchos de los sesgos que las máquinas aprenden están en nuestros sistemas sociales. Si queremos que las máquinas no aprendan estos patrones, la mejor solución es cambiar como sociedad buscando migrar a sistemas de seguridad y convivencia más justos”, ha opinado Gómez.

Dejar una respuesta

Please enter your comment!
Please enter your name here