Si con la tecnología podemos predecir crímenes la gran pregunta es ¿debemos?

En la lista de CBS Medium Allison Dubois -interpretada por Patricia Arquette- ayuda al fiscal a resolver todo tipo de crímenes peliagudos. Gracias a sus poderes paranormales Dubois es apto de desentrañar los misterios que traen de cabeza a los inspectores mas avezados. Como ocurre a menudo, sin embargo, la realidad supera a la ficción. La justicia no necesita de médiums, pitonisas ni telépatas para combatir el crimen. Tiene a su alcance una tool mucho mas eficaz: la tecnología. Algunas comisarías y juzgados la llevan al extremo de emplearla, aseguran, para predecir delitos y actuar antes de que ocurran. La clave es… ¿Funciona realmente? Y sobre todo, en el caso de que así sea, ¿hasta qué punto debe utilizarse con ese fin?

Poco a poco los softwares de prevención de la criminalidad ganan peso en las jefaturas. Algunos, similares a PredPol, metodo que estrenó hace años el Departamento de Policía de Los Ángeles y que se ha extendido al menos a medio centenar de agencias policiales repartidas por el mundo, ayudan a resolver el riesgo de que se cometa un delito en un área geográfica. Otros programas, como COMPAS, valoran la probabilidad de que un hombre reincida en el futuro. La Tecnologia Ha Permitido Desarrollar Softwares De Prevencion De Delincuencia Su funcionamiento varía en cada caso, dependiendo de cuál sea el objetivo. En su web oficial PredPol afirma que utiliza solo 3 factores para elaborar sus predicciones: el tipo de delito, la ubicación y la fecha y hora. Los resultados se plasman en una interfaz web a través de Google® Maps, donde se representan en cuadrados de 150×150 m las “áreas de mayor riesgo”.

En España la Policía Local de Castellón aplica una tool pionera -de filosofía parecido a PredPol- en colaboración con la Cátedra Eurocop de la Universidad Jaume I que ya ha despertado el interes de los agentes de Rivas Vaciamadrid y la Policía Nacional. Su director, el matemático Jorge Mateu, detalla que su software trabaja con información geográfica, económica, meteorológica… que le acepta desplazar a un mapa el riesgo de que se cometa un definido delito. Mapa De Predpol Con Su Evaluacion De Riesgos Por Zonas

“Se introducen las variables que tomará el algoritmo matemático para la creación de los mapas de riesgo”, expone Mateu, quien apostilla que el metodo utiliza una amplia variedad de factores. Entre ellos hay documentos ligados de forma directa con las infracciones que se intenta evitar. “Son coordenadas (x, y, t, d) dando el lugar de la ciudad y el momento del delito. La componente ‘d’ indica su tipo: robo, homicidio, riña callejera…”, anota el jefe de la Cátedra Eurocop. Durante la etapa de modelización y predicción, el software tiene en cuenta el histórico de crímenes de cada zona.

A mayores el software usa valores demográficos y económicos -población por sectores, barrios o distritos, propiedades, nivel de vida…- y medioambientales. Cada minuto u hora se miden aspectos como la temperatura, la rapidez del viento, la humedad o la lluvia, que juegan un papel significativo a la hora de establecer la probabilidad de que se cometan actos criminales.

Herramientas como PredPol aceptan anticipar el riesgo de delito en áreas geográficas. COMPAS valora la oportunidad de que un hombre “fichado” reincida

“Lo que hacemos es proponer ejemplos de predicción en espacio-tiempo, modelos estocástico-matemáticos que, de alguna forma, lanzan con qué probabilidad va a suceder un delito, en qué zonas de la ciudad y en qué momentos temporales, en un formato muy sencillo: las calles salen coloreadas con tonos que representan probabilidades. Esos mapas son de actualización continua”, expone Mateu: “La guardia va tomando los documentos y reajustando las predicciones a futuro, por lo tanto tiene el feedback en tiempo real para las próximas horas”.

Diferente mecanismo emplean los softwares que trabajan con individuos concretos en vez de barrios. El algoritmo de COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), software comercializado por la compañia Northpointe, opera con las soluciones que sus sujetos dan a un cuestionario de 137 ítems. Según sus promotores, el software acepta saber la probabilidad de reincidencia de alguien que ya ha cometido un delito.

Los documentos son extraídos de registros criminales y de preguntas que se formulan directamente a cada una de las individuos analizadas: antecedentes familiares, consumo de drogas en su entorno, colaboración en peleas durante la infancia… Con ellos COMPAS decide mediante una escala numérica si el riesgo de que vuelva a delinquir resulta bajo, moderado o alto.

“COMPAS se basa en datos estadísticos y dinámicos para producir sus resultados de riesgo y necesidades. El uso de medidas dinámicas acepta que estas cambien con el tiempo a medida que varía el comportamiento”, aclara Northpointe, que afirma disponer de mecanismos para eludir que soluciones incorrectas o falsas de los sujetos puedan alterar sus valoraciones.

Una expansión imparable

Desde su puesta en marcha ejemplos predictivos como PredPol o COMPAS han ganado fama y peso en los sistemas de justicia. La tool comercializada por Northpointe empezó a utilizarse en los juzgados de EE UU en 1998 y en los últimos 20 años ha ido haciéndose cada vez mas usual en el país. Las puntuaciones de COMPAS se usan por ejemplo para decidir sobre la libertad condicional. Al menos en 2016, en algunos estados -como Colorado, Virginia u Oklahoma- los jueces tenían camino a la evaluación inclusive durante la etapa de la sentencia penal.

Un triunfo parecido alcanzaron los softwares que ejecutan con mapas al estilo de PredPol. Ciudades repartidas por el globo han determinado incorporarlos a sus comisarías o, al menos, los han probado. Montevideo, Milán, Chicago, California, Manchester, Kent, Dubai… Son solo algunos ejemplos. En Kanagawa, en la región de Kantō, cerca de Tokio, la guardia valora emplear tools similares para optimizar la protección durante las Olimpiadas y Paraolimpiadas de 2020. Mateu enfoca que su software de predicción ha suscitado el interes de Colombia, México y Ecuador.

Su expansión ha ido acompañada a menudo de analisis que predican las bondades de estas herramientas. La Policía de Memphis e IBM, por ejemplo, aseguran que el uso de un software de analisis predictivo construido por el enorme azul ha permitido reducir un 30% los crímenes mas graves y un 15% los sucesos violentos en la ciudad. En 2014 la Policía de Reading (Pensilvania) mantenía que gracias a PredPol había disminuido un 23% los robos en apenas 14 meses. Antonio Javier Dieguez

No todos los analisis apuntan en la misma dirección. En los últimos años investigaciones independientes -al margen de las industrias que desarrollan los softwares– cuestionan que este tipo de tools sean una panacea. En 2013 el semanario SFWeekly publicaba un capítulo en el que concluía que buena parte del triunfo de PredPol dependía de su marketing agresivo.

Según recogía el semanario de San Francisco, la compañia solicita a las agencias de guardia que promocionen sus virtudes aun cuando -sostiene- “su efectividad todavía no ha sido probada”. A modo de ejemplo cita el caso de Seattle, donde PredPol habría abaratado su valor un 36% -hasta dejarlo en 135.000 dólares- a cambio de que la ciudad le favoreciera con buena prensa.

SFWeekly no es el único que ha arrojado sombras sobre la efectividad de los aplicaciones predictivos. En 2016 la organización de periodismo ProPublica divulgó un exhaustivo documento en el que apuntaba inquietudes sobre la efectividad de COMPAS y alertaba de los profundos sesgo raciales del sistema.

Las tools de predicción han experimentado una expansión notable. Algunas voces cuestionan sin embargo la falta de analisis independientes e inclusive sus sesgos

Ante esos resultados un dispositivo del Dartmouth Collegue desarrolló tiempo después un nuevo análisis para valorar el rango de aciertos de COMPAS. Sus conclusiones fueron inclusive mas sorprendentes: el algoritmo dio en el clavo en el 65% de las ocasiones. El clan de dominio formado por los examinadores con unas 400 individuos reclutadas a través de Amazon® Mechanical Turk lo hizo en una medida similar: entre el 63 y 67% de las veces. Lo chocante es que los voluntarios carecían de preparación y disponían de menos documentos que COMPAS. Aplicaban únicamente… ¡Su intuición!

A la luz de unos y otro analisis la pregunta del millón es… Podemos, sin embargo ¿debemos usar los sistemas de prevención de delincuencia? ¿Es un error o un acierto recurrir a softwares de predicción por zonas, como PredPol? ¿Y los similares a COMPAS, que atañen a individuos específicos? ¿Podrían enquistar guetos urbanos los primeros al presuponer que serán escenarios de crímenes? ¿Predisponen a los agentes de policía? Y los segundos, ¿perpetúan prejuicios? ¿Dejan en manos de tools parciales el futuro de los encausados?

El debate esta servido.

Una de las discusiones mas frecuentes se centra en cómo calibrar la efectividad de los programas. Dado que las campañas para prevenir la delincuencia no suelen depender solo de un software, ¿cómo resolver en qué medida es este encargado de un descenso de la criminalidad? ¿Cuánto es mérito del algoritmo y cuánto de otras políticas? Sus claves censuran además la opacidad con la que suelen operar los programas, comercializados a menudo por industrias privadas.

“La guardia quiere una actitud de prevención, no de reacción”, anota Mateu, quien reconoce que esa característica dificulta valorar los resultados del software. “La guardia distribuye las patrullas de tal forma que van a un sitio en una franja horaria. Si el delito no ocurre la pregunta es: ¿Se debe a que el prototipo no ha sido fiable o a que, como han ido antes de que ocurra, lo han evitado?”

Un repaso impulsado por la organización ProPublica concluyó que COMPAS perjudica a los sujetos negros y que su porcentaje de acierto es parecido al de los humanos

Sergio Ilarri, profesor del área de Lenguajes Computacionales y Sistemas de Ingeniería de la Universidad de Zaragoza, muestra que en enorme medida el triunfo de un software depende de que la recogida de información se haga de forma eficiente. “Los documentos deben ser tan completos, precisos y representativos como sea posible”, aconseja el maestro antes de advertir de los “sesgos” que pueden ocasionar “metodologías inadecuadas, prejuicios o la simple subjetividad de los implicados”.

El jefe de la Cátedra Eurocop reconoce que es “imposible” alcanzar predicciones con una fiabilidad absoluta, del 100%, sin embargo insiste en que los ejemplos que utiliza su software lanzan altas probabilidades comprendidas entre el 70 y 80%. “Se trabaja con aleatoriedad y eso siempre deja una franja inútil de control”, abunda Mateu, convencido sin embargo de que continua habiendo cierto margen de mejora.

A menudo los documentos disponibles deben manejarse con precaución. En el caso de PredPol, enorme parte de los analisis que se citan para acreditar su efectividad están ligados a la propia empresa. Durante su análisis, SFWeekly contactó con ciudades de EEUU que usan el software de predicción en busca de valoraciones independientes. El efecto –como ya se hacía eco XATAKA en 2015- fue decepcionante: ninguna pudo o quiso aportar reportes de elaboración propia. Jorge Mateu Recibe Una Condecoracion De La Policia Nacional De Colombia Por El Software De Su Equipo

Sarah L. Desmarais y Jay P. Singh elaboraron un estudio en 2013 en el que analizaron 19 sistemas de evaluación de riesgo -CAIS, DFIA, IORNS, ROC, RMS, OGRS… Además de COMPAS- y detectaron la falta de reportes objetivos sobre su eficacia. “En la totalidad de los casos, la validez solo se había examinado en uno o 2 analisis realizados en EE UU y, con frecuencia, los completaban los mismos que desarrollaban el instrumento”, concluían.

¿Herramientas con sesgos raciales?

PredPol incide en que para su tarea “nunca se usa información personal identificable”. “No se utiliza información demográfica, étnica o socioeconómica. Esto elimina la oportunidad de violaciones de privacidad o derechos civiles”, subraya de forma tajante la empresa. Sin embargo, ¿podría el uso de estas tools enquistar guetos o condicionar a los agentes de policía?

En 2015 Forbes citaba a Peter Scharf, un criminólogo de Louisiana que alertaba de que sistemas como PredPol pueden llevar a agentes inexpertos a exagerar sin pretenderlo la conflictividad de un barrio. Antonio Diéguez, Catedrático de Lógica y Filosofía de la Ciencia de la Universidad de Málaga, admite que es “difícil” indicar la efectividad de estos recursos, sin embargo ve “fuera de lugar” la crítica de que puedan promover guetos. “Al contrario, contribuirán a su desaparición”.

“La existencia de guetos tiene causas sociales, económicas… Que se reduzca la delincuencia puede apoyar a que un gueto deje de serlo”, reflexiona Diéguez: “¿Criminalización? La totalidad de las individuos de estas zonas son víctimas, no delincuentes”. En su opinión, si los agentes llegaran a tratar como un asesino potencial a algún vecino de un barrio señalado por PredPol se razones a un error humano, no del software. Su primordial crítica se centra en la “opacidad” del sistema.

El profesor Andoni Alonso Puelles, del Departamento de Filosofía y Sociedad de la Universidad Complutense de Madrid, invita a reflexionar sobre la titularidad de los aplicaciones y los documentos con los que operan. “Las zonas peligrosas de una ciudad son un saber mas o menos tácito. No creo que en ese sentido afecte mucho. No me parece incorrecto que un Estado organice este tipo de cosas. Lo que me causa mas problemas es si son las industrias las que lo proveen. ¿Quién tiene la propiedad y la titularidad de los documentos y del producto?”, reflexiona el académico.

Los partidarios de aplicaciones similares a PredPol replican que su uso mejora la protección y acepta una organización mas eficiente de los recursos. Mateu recuerda que los documentos que utiliza la guardia son además confidenciales. “Esa información no se hace pública. No puede ser que a la masa de una ciudad se le diga que en determinadas zonas hay una peligrosidad innata. Hay que ir con mucho cuidado para eludir definir la ciudad por zonas de conflictividad”, señala.

Un debate que perjudica al futuro judicial

El debate se vuelve mas complejo con aplicaciones como COMPAS, que trabajan con individuos concretos. El repaso de ProPublica -que analizó la evaluación de mas de 7.000 arrestados en Broward entre 2013 y 2014- arrojaba un sesgo racial: “Los demandados de raza negra que no reincidieron en 2 años tenían casi el doble de probabilidades de ser clasificados erróneamente como de mayor riesgo en comparación con sus contrapartes blancos (45% frente al 23%)”.

Los softwares de predicción son un utensilio mas para la justicia, no sustitutos del factor humano, concluyen los maestros consultados

En 2014 el entonces Fiscal General de EE UU, Eric Holder, ya advertía de que con las puntuaciones de riesgo se podrían estar introduciendo sesgos en los tribunales. Otro examen anunciado en 2015 por Associated Press (AP) encontró “problemas significativos” en las encuestas que se elaboraban para las tools de evaluación de riesgos, pese a que sin citar a COMPAS ni ningun otro programa. Sus conclusiones -recordaba AP- se han usado sobre todo en la toma de decisiones sobre la libertad condicional, “pero cada vez mas se usan para dictar sentencia”.

Consciente de las críticas por sus sesgos, Northpointe alega en su exposición oficial que COMPAS “funciona bien entre géneros y etnias”. La compañia solamente reconoce “algunas limitaciones con respecto a la idoneidad para los infractores con enfermedades mentales”. Entre las 137 preguntas que plantea a los sujetos que evalúa, de hecho, no habría ninguna sobre la raza. Sin embargo el creador de la compañía, el profesor Tim Brennan, ha reconocido la dificultad de elaborar un metodo con factores que no puedan correlacionarse con la etnia.

Si se ha comprobado que tiende a penalizar a la demografía negra, si su porcentaje de aciertos es parecido al que consiguen los individuos echando mano de la simple intuición… ¿Cómo se justifica su triunfo comercial? Una descripción es el deseo de racionalizar la onerosa política carcelaria de EE UU, que cuesta millones a sus arcas públicas. En su artículo, AP apuntaba que se podría alcanzar un significativo ahorro gracias, en parte, a las tools de evaluación de riesgo.

Diéguez urge “andar con pies de plomo” cuando se intenta con personas. “Estos sistemas son opacos. No justifican la decisión final. Eso impide descubrir sesgos en casos concretos, solo a largo plazo”, advierte el catedrático de la Universidad de Málaga. En enero el famoso periodista Ed Yong se hacía eco en las paginas de The Atlantic del caso de Eric Loomis, que ejemplifica el miedo de Diéguez.

La guardia arrestó a Loomis mientras conducía un vehículo que se había aprovechado en un tiroteo. Al decidir su condena el juez tuvo en cuenta -entre otros factores- la valoración de COMPAS, que asignó al acusado un riesgo subido de reincidencia. La sentencia: 6 años de prisión. Su jurista apeló demostrando la falta de transparencia del programa. La Corte Suprema de Wisconsin dictó contra Loomis porque consideró que la condena de prisión habría sido la misma sin COMPAS, sin embargo sí aconsejó manejar el algoritmo con precaución. Mapa Con La Informacion Que Maneja El Equipo De Mateu

Puelles considera que los aplicaciones del corte de COMPAS constituyen “una tool más” a disposición de los magistrados. “Igual que antes debían interpretar reportes psiquiátricos, policiales, de la Seguridad Social… para obtener sus conclusiones. No creo que un juez competente se fie solo de un algoritmo”, razona. Sin embargo advierte sobre el “peligro” de “automatizar la justicia”.

“Este es un caso mas de esa especie de mística del algoritmo que puede traer consecuencias lamentables. Sería imprescindible un acercamiento prudencial y tener presente que el factor humano resulta fundamental. Al final un juez que dicta una sentencia viciada o errónea es responsable, sin embargo si un algoritmo se carga el futuro de 30 o 40 personas… ¿Quién es el responsable? ¿El programador? ¿La compañía? Empieza a marcharse la responsabilidad”, lamenta Puelles, quien plantea abrir “un debate profundo” sobre el alcance de este tipo de recursos.

Desde la Universidad de Sevilla, José Antonio Marín Casanova, profesor entre otras materias de Filosofía Actual, Tecnociencia y Sociedad, invita a “abandonar la ingenua tecnofobia”, pese a que sin “entregarse a la tecnofilia”. “Habría que someter estas tools de prevención de la delincuencia a tests de resistencia axiológica para verificar en qué medida pueden ser contraproducentes por promover la discriminación ideológica, étnica, económica, religiosa o sexual, por no hablar de su factible uso no ya para eludir el crimen, sino para castigarlo preventivamente”, reflexiona.

Una apoyo más, no una “caja mágica”

En lo que coinciden las voces críticas y los partidarios de las tools de prevención consultados es en que estas deben entenderse como utensilios, no como un sustituto del criterio de los expertos. “La idea es que puedan usarse como ayuda, sin embargo no como componentes determinantes”, muestra Diéguez antes de enfocar la ironía que supondría investigar algoritmos mas fiables sin combatir al mismo tiempo las causas de la delincuencia: los factores económicos y sociales.

Ilarri: “Es significativo trabajar en la formación de las individuos que utilicen estos recursos, en reglamentos y códigos éticos que regulen la recolección y uso de datos”

“Estamos en un mundo del big data. Hay mucha información en la Red y la guardia necesita tools para llegar. Está claro que al final son decisiones personales, que son los cuerpos directivos, los agentes… los que toman las decisiones. Esto ayuda en ese proceso. No creo que se base solo en un software”, abunda Mateu. De opinion similar, Ilarri recuerda que los aplicaciones brindan un “apoyo” como bienes “útiles por su capacidad para funcionar grandes volúmenes de datos de diferente tipo”.

No se debe delegar completamente en ellos la toma de decisiones. Si consideramos estas tools ‘cajas negras’ a las que proporcionamos documentos de diferente tipo y que mágicamente nos devuelven soluciones óptimas estaríamos cometiendo un enorme error, ya que supondría asumir que el software y el prototipo empleados son perfectos y completos”, razona.

Ilarri insiste además en la obligación de que sean “equipos multidisciplinares y especializados” los que manejen los programas. “Es elemental el papel de los maestros del ámbito del dilema que se desea abordar (en este caso, por ejemplo, de las individuos con destreza en la organización de las fuerzas de seguridad) para usar e interpretar adecuadamente tanto los documentos de entrada como los resultados y tomar decisiones informadas, guiadas por los datos”, precisa.

“Correctamente utilizadas por personal especializado, estas tools pueden apoyar a planificar acciones de forma adecuada. Utilizadas de forma incorrecta pueden llevar a decisiones inadecuadas o inclusive reforzar prejuicios” -remata el experto- “Es significativo trabajar en la formación de las individuos que las utilicen, en reglamentaciones y códigos éticos que regulen la recolección y uso de datos, y en el desarrollo de técnicas de gestión de documentos mas avanzadas”.

También te recomendamos

IBM® utilizó cámaras de la guardia de Nueva York para un metodo que acepta investigar individuos por color de piel, segun The Intercept

Aura de Telefónica vivirá como IA en Google® Assistant o Facebook® Messenger, pero, ¿para qué servirá realmente?

Un par de niños listos: moviles y smart TVs, la innovacion del descanzo tecnologico mano a mano


La novedad Si con la tecnología logramos predecir crímenes la enorme pregunta es ¿debemos? fue publicada originalmente en Xataka por Carlos Prego .


Xataka



Agradecemos a la fuente original por la información que nos ayudo a crear este articulo.

También puedes revisar estas noticias relacionadas.

Tags: #crímenes #debemos #gran #podemos #predecir #pregunta #tecnología

Deja un comentario

Author: 
    author