Foto de Leon Neal/Getty Image y 20th Century Fox
En el famoso memeun autor de ciencia ficción afirma que escribió una novela, no invente el tormento Nexus, solo para que una compañía de tecnología se pierda el punto e con orgullo inventar un nexo de tormento de la vida real. Parece que el Reino Unido ha decidido hacer realidad ese concepto, ya que el gobierno británico se ha visto obligado a revelar que están construyendo un no kidding. Informe minoritario-La división de pre-crímenes de estilo.
Hasta donde sabemos, este no es un grupo de psíquicos calvos conectados a las computadoras, pero se describe como un programa de «predicción de asesinato» que utiliza los datos personales de las personas para identificar a los que tienen más probabilidades de matar a alguien pronto. De acuerdo a El guardiánel gobierno está utilizando «algoritmos para analizar la información de miles de personas, incluidas las víctimas del crimen» para descubrir quién es probable que se rompa.
El Ministerio de Justicia británico explica que este programa busca «revisar las características de los delincuentes que aumentan el riesgo de cometer homicidio» y también «explorar técnicas alternativas e innovadoras de ciencia de datos a la evaluación del riesgo de homicidio». Los funcionarios subrayan que esto es «solo para fines de investigación» y que, al menos por el momento, no arrestarán a nadie por un asesinato que aún no se haya cometido.
Como era de esperar, perfilar a las personas por crímenes que un algoritmo ha concluido que es probable que se comprometa en el futuro no ha bajado particularmente bien. Sofia Lyall, investigadora de Pression Group StateWatch, descubrió la existencia de este programa A través de las solicitudes de libertad de información y describió un sistema de «predicción del delito» como «escalofriante y distópico»:
«Al igual que otros sistemas de este tipo, codificará en sesgo hacia las comunidades racializadas y de bajos ingresos. Construir una herramienta automatizada para perfilar a las personas como delincuentes violentos es profundamente incorrecto, y el uso de datos sensibles sobre la salud mental, la adicción y la discapacidad es altamente intrusiva y alarmante».
Quizás deberíamos tomar al gobierno en su palabra, y que esto es solo un experimento para ver si el algoritmo realmente puede predecir el asesinato. Por otra parte, es muy fácil imaginar a los policías perezosos que se apoyan en esta tecnología y deciden que si el algoritmo (sin duda aumentó la IA) lo selecciona como un posible alboroto (y mucho menos un asesino) deberían tener derecho a imponer restricciones antes de que pueda romper la ley.
Supongamos que no está de acuerdo con el gobierno sobre un tema fundamental. ¿Es demasiado loco imaginar versiones futuras de sistemas como este que cambian su perfil de redes sociales, etiquetándole como alguien que probablemente se una a una protesta en la calle, y un pedido realizado antes del evento que le prohíbe específicamente asistir? De cualquier manera, Philip K. Dick debe estar girando en su tumba en este momento.
Publicado: 9 de abril de 2025 03:41 am