La ola de ajuste de cuentas sobre el racismo sistémico y la brutalidad policial que ha estado arrasando las instituciones, incluidas las científicas, ha llegado a los departamentos de matemáticas normalmente solitarios de las universidades. Un grupo de matemáticos en los Estados Unidos ha escrito una carta pidiendo a sus colegas que dejen de colaborar con la policía debido a las disparidades ampliamente documentadas en la forma en que las agencias policiales estadounidenses tratan a las personas de diferentes razas y etnias. Concentran sus críticas en la vigilancia predictiva, una técnica basada en las matemáticas destinada a detener el crimen antes de que ocurra.
La carta, fechada el 15 de junio, está dirigida a la revista comercial Notices of the American Mathematical Society (AMS), y se produce a raíz de las protestas de Black Lives Matter en los Estados Unidos y en todo el mundo, provocadas por el asesinato de George Floyd por un oficial de policía en Minneapolis, Minnesota, en mayo. Más de 1.400 investigadores se han unido a la convocatoria.
En los últimos años, matemáticos, estadísticos e informáticos han estado desarrollando algoritmos que procesan grandes cantidades de datos y afirman ayudar a la policía a reducir la delincuencia, por ejemplo, sugiriendo dónde es más probable que ocurra la delincuencia y concentrando más recursos en esas áreas. El software basado en dichos algoritmos está en uso en los departamentos de policía de los Estados Unidos, aunque no está claro cuántos. Su efectividad es cuestionada por muchos.
Pero “dado el racismo estructural y la brutalidad en la policía estadounidense, no creemos que los matemáticos deban colaborar con los departamentos de policía de esta manera”, escriben los matemáticos en la carta. “Es simplemente demasiado fácil crear una apariencia ‘científica’ para el racismo”.
“La actividad de colaborar con la policía no es algo que creemos que un matemático debería estar haciendo”, dice el coautor Jayadev Athreya, matemático de la Universidad de Washington en Seattle. (Él y los otros escritores enfatizan que la carta representa sus propios puntos de vista y no los de sus empleadores).
La AMS dice que “no tiene una posición oficial sobre la participación de los matemáticos en proporcionar experiencia a las agencias de aplicación de la ley, o a las empresas que hacen negocios con dichas agencias”.
Sesgos históricos
La carta destaca como ejemplo la empresa PredPol de Santa Cruz, California, fundada por matemáticos. PredPol proporciona a los departamentos de policía un software que sugiere ubicaciones geográficas en las que es probable que ocurra un delito en un día determinado, según los patrones estadísticos de delitos anteriores.
Los críticos dicen que los datos utilizados para alimentar tales algoritmos contienen prejuicios raciales. Además, dicen que las “condiciones de control” para la vigilancia predictiva (vigilancia policial ordinaria) están sesgadas racialmente. “Tenemos estudios que muestran que ciertos delitos, por ejemplo, el consumo de drogas, es lo mismo entre los blancos y los negros, por ejemplo”, dice Sandra Wachter, jurista de la Universidad de Oxford, Reino Unido, que estudia las implicaciones legales y éticas de tecnología. “Pero en términos de quién es acusado por esos crímenes, quién es detenido o quién es condenado, existe un sesgo racial muy fuerte”.
Pero el presidente ejecutivo de PredPol, Brian MacDonald, argumenta que en el caso de su compañía, no hay riesgo de que los sesgos históricos reflejados en las estadísticas de delitos afecten las predicciones, porque los datos que usa la compañía son inherentemente menos sesgados que otros tipos de estadísticas de delitos.
Franklin Zimring, un criminólogo de la Universidad de California en Berkeley, agrega que el valor de las herramientas de vigilancia predictiva no está probado y que el software puede generar bucles de retroalimentación. “Si la presencia policial en sí misma es una influencia influyente en el volumen de delitos medibles, no debe usar esos eventos como base para asignar recursos policiales, o es una profecía autocumplida”, dice Zimring.
MacDonald argumenta que PredPol utiliza solo delitos denunciados por las víctimas, como robos, para alimentar su software. “Nunca hacemos predicciones para los tipos de delitos que tienen la posibilidad de sesgo iniciado por los oficiales, como delitos de drogas o prostitución”, dice.
Eso deja la pregunta de cuán efectivas son las tecnologías de la compañía. Una revisión externa que analizó ocho años de uso de PredPol por el Departamento de Policía de Los Ángeles en California concluyó que era “difícil sacar conclusiones sobre la efectividad del sistema para reducir la delincuencia de vehículos u otros delitos”. Un estudio de 2015 publicado 1 en el Journal of the American Statistical Association y en coautoría de los fundadores de la compañía examinó dos ciudades que habían implementado su software predictivo y mostró que era capaz de predecir la ubicación de los delitos mejor que un analista humano.
Un estudio separado realizado por algunos de los mismos autores 2 encontró que “no hubo diferencias significativas en la proporción de arrestos por grupo racial-étnico entre las condiciones de control y tratamiento”.
MacDonald también dice que, a diferencia de otras compañías que trabajan con la policía, PredPol revela cómo funcionan sus algoritmos y se somete a auditorías. Esto podría haber expuesto a la compañía a un mayor escrutinio mediático que otros y podría ser la razón por la que se destacó en la carta, dice MacDonald. “Como resultado de ser tan abiertos, somos más visibles y, por lo tanto, potencialmente más sujetos a críticas y escrutinio que otras compañías”.
Con información de: Nature
Referencias
- 1. Mohler, G. O. et al. J. Am. Stat. Ass. https://doi.org/10.1080/01621459.2015.1077710 (2015). Google Scholar
- 2. Brantingham, P. J., Valasik, M. & Mohler, G. O. Statistics and Public Policy https://doi.org/10.1080/2330443X.2018.1438940 (2017). Google Scholar