La polémica del software que puede predecir si alguien es un criminal

Redacción

Un grupo de científicos de Harrisburg han creado un modelo de Inteligencia Artificial (IA) que, por medio de un análisis facial, predice si una persona es un potencial criminal o no. A pesar de lo interesante que suena esta tecnología, miles de científicos e investigadores se han opuesto a la idea.

Los expertos que han desarrollado esta IA exponían que el algoritmo tiene un “80% precisión y sin prejuicios raciales; el software puede predecir si alguien es un delincuente basándose únicamente en una imagen de su cara. El software está destinado a ayudar a la policía a prevenir el delito”.

Por ello, Springer’s Nature Research Book Series tiene la intención de publicar un artículo de los científicos llamado “Un modelo de red neuronal profunda para predecir la criminalidad mediante el procesamiento de imágenes”, pero otros conocedores en el campo están luchando para evitar que tal información sea publicada.

El principal argumento de los que se oponen a este artículo es que hace afirmaciones que se basan en premisas, investigaciones y métodos científicos poco sólidos.

“Seamos claros: no hay forma de desarrollar un sistema que pueda predecir o identificar ‘criminalidad’ que no esté sesgada racialmente, porque la categoría de ‘criminalidad’ en sí misma está sesgada racialmente”, agregó. “Los datos generados por el sistema de justicia penal no pueden ser utilizados para “identificar delincuentes o predecir el comportamiento delictivo. Nunca”.

“Innumerables estudios han demostrado que las personas de color son tratadas con más dureza que las personas blancas situadas de manera similar en todas las etapas del sistema legal, lo que resulta en serias distorsiones en los datos”, continúa la carta del grupo de expertos.

Springer, por su parte, ha afirmado que el documento no fue “en ningún momento” aceptado para su publicación y se sometió a una conferencia en la que Springer publicará las actas en las que había sido rechazada cuando se emitió la carta abierta.

Mientras tanto, la Coalición para la Tecnología Crítica han señalado que la tecnología policial podría ser una herramienta para la ejecución de detenciones racialmente discriminatorias y han exigido que “todos los editores deben abstenerse de publicar estudios similares en el futuro”

Con información de Muy Interesante