http://www.netmedia.mx/actualidad/cuestionan-algoritmo-que-ayuda-detectar-delitos-y-dictar-sentencias-en-ee-uu/
Actualidad

Cuestionan algoritmo que ayuda a detectar delitos y dictar sentencias en EE.UU.

COMPAS, un algoritmo que ayuda a los jueces en EE.UU. a dictar sentencias o identificar si alguien puede salir en libertad condicional, ha quedado al descubierto luego de que un equipo de investigadores demostrara que no es más fiable que cualquier humano sin preparación. El software también tenía funciones como determinar cuánto tiempo debe permanecer una persona en la cárcel según el riesgo potencial de volver a delinquir.

El equipo, liderado por la estudiante de informática del Dartmouth College, Julia Dressel, estudió la validez de los resultados de COMPAS, usando información provista por la base de datos ProPublica. Se trata de una colección de puntuaciones de COMPAS para 10,000 acusados en espera de juicio en el Condado de Broward, Florida, así como sus registros de arrestos para los siguientes dos años.

Lo anterior, debido a que existían sospechas de que COMPAS solía favorecer a los ajusticiados blancos frente a los afroamericanos.

La investigadora seleccionó, al azar, a 1,000 de los acusados ​​y registró siete datos sobre cada uno, incluyendo su edad, sexo y número de detenciones previas. Posteriormente, reclutó a 400 personas a través Amazon Mechanical Turk, un servicio de crowdsourcing en línea para encontrar voluntarios de investigación.

Cada voluntario, sin preparación previa y de diferentes edades y niveles educativos, recibió perfiles de 50 acusados y debía pronosticar si volverían a ser arrestados dentro de dos años (el mismo estándar utilizado por COMPAS). Los humanos acertaron casi con la misma frecuencia que el algoritmo, entre el 63% y el 67% de las veces, en comparación con el 65% de COMPAS, según informa la revista Science Advances.

Los resultados dejaron en evidencia que los humanos puntúan similar al algoritmo cuando predicen correctamente la detención de alguien. No obstante, cuando se equivocan, revelan un sesgo racial similar. Tanto el hombre como la máquina supusieron incorrectamente que habría más arrestos de personas negras de lo que realmente sucedió (falsos positivos) y menos arrestos de blancos (falsos negativos), asegura una ABC.es.

Un segundo experimento

Dressel también exploró si un algoritmo simple podría vencer a COMPAS, que normalmente utiliza seis factores de un cuestionario de 137 puntos para evaluar el riesgo.

Para ello, la investigadora creó su propio algoritmo con solo dos factores: la edad y el número de condenas anteriores. Esa fórmula simple obtuvo predicciones correctas el 67% de las veces, similar a la puntuación de COMPAS.

En EE.UU., algoritmos similares influyen no solo en las decisiones judiciales, sino también en las aprobaciones de préstamos, las evaluaciones de los docentes e incluso si los cargos por abuso infantil pueden ser investigados por el estado. Sin embargo, saber que algunos no son mejores que cualquier persona en predecir el comportamiento de un delincuente podría provocar cuestionamientos respecto de su fiabilidad.

Netmedia es mucha más que noticias. suscríbase y reciba lo mejor

Te recomendamos

Cuestionan algoritmo que ayuda a detectar delitos y dictar sentencias en EE.UU.