Un día de abril, la policía del metro de Brooklyn detuvo a Trevis Williams y lo arrestó. No sabía qué estaba pasando.
Dos días después, seguía en prisión. ¿El cargo? Exhibirse delante de una mujer en un edificio de Manhattan, a unos 19 kilómetros de donde se encontraba. Williams mide 1,88 metros y pesa alrededor de 104 kilogramos. El sospechoso descrito por la víctima medía aproximadamente 1,68 metros y pesaba aproximadamente 73 kilogramos. Lo que los conectó fue un sistema de reconocimiento facial con inteligencia artificial basado en un video granulado de CCTV.
Una coincidencia defectuosa
El Departamento de Policía de Nueva York (NYPD) utiliza tecnología de reconocimiento facial desde 2011. Entre 2007 y 2020, invirtió más de 2.800 millones de dólares en herramientas de vigilancia, como rastreadores telefónicos Stingray, software de predicción de delitos y vehículos de rayos X. Actualmente, el departamento realiza innumerables búsquedas de reconocimiento facial al año.
El uso de la tecnología en el caso Williams siguió un patrón ya conocido. Los investigadores introdujeron en el sistema del departamento una imagen borrosa de una grabación granulada de CCTV. Un algoritmo transformó el rostro en una serie de puntos de datos y arrojó seis posibles coincidencias. Todos eran hombres negros con rastas y vello facial.
Williams había sido arrestado unos meses antes por un delito menor no relacionado, por lo que su foto policial aún permanecía en el sistema. Un forense la consideró una posible coincidencia. Un informe incluso advirtió: “No hay causa probable para el arresto”.
Aun así, los detectives usaron la foto en una rueda de reconocimiento. La víctima lo señaló. “Estoy seguro de que es él”, escribió un detective.
Eso bastó para que la policía lo arrestara. No revisaron sus registros telefónicos, ni verificaron su coartada, ni contactaron a su empleador.
Cuando le mostraron la imagen de vigilancia, Williams suplicó: “Ese no soy yo, hombre. Te lo juro, ese no soy yo”. Un detective respondió: “Claro que vas a decir que no fuiste tú”.
La vigilancia se encuentra con la memoria del testigo ocular

La mujer que presentó la denuncia inicial declaró a la policía que ya había visto al hombre. El agresor era un repartidor que se quedaba en el pasillo de su edificio en la calle 17 Este de Manhattan. El 10 de febrero, según ella, se apareció en el espejo del pasillo con los genitales al descubierto. Ella gritó. Él huyó.
Pero en ese momento, Williams estaba en Marine Park, Brooklyn. Los registros de la torre de telefonía móvil lo confirmaban. Conducía de regreso a casa desde su trabajo en Connecticut, donde trabajaba con adultos autistas. No importaba.
Estuvo encarcelado durante más de dos días. La fiscalía finalmente retiró los cargos en julio, pero el daño ya estaba hecho.
“En un abrir y cerrar de ojos, toda tu vida podría cambiar”, dijo Williams.
Ups, la IA lo hizo de nuevo…
Trevis Williams no está solo. En todo el país, al menos 10 personas han sido arrestadas injustamente debido al reconocimiento facial, según informes de prensa. La mayoría, como Williams, eran personas de color.
En Detroit, tres hombres negros fueron arrestados injustamente mediante reconocimiento facial. En un caso de 2022, un hombre fue retenido durante más de un mes antes de demostrar que no estaba en el lugar de los hechos tras ser identificado falsamente. El hombre enfrentó cargos de intento de asesinato.
Grupos de derechos civiles han emitido fuertes advertencias. “Hemos visto esto una y otra vez en todo el país”, declaró Nathan Wessler, de la ACLU, según el New York Times. “Uno de los principales peligros de esta tecnología es que a menudo falla”.
Un estudio de 2023 del Instituto Nacional de Estándares y Tecnología (NIST) reveló que los sistemas de reconocimiento facial podían comparar fotos policiales con un 99,9% de precisión, siempre que las fotos fueran nítidas y controladas. Sin embargo, cuando las imágenes estaban borrosas, con poca luz o tomadas desde un ángulo, como suele ocurrir en la vida real, la tasa de error se disparaba.
“Puede disminuir significativamente cuando se utilizan imágenes de baja calidad o no controladas”, dijo Michael King, asesor federal que estudió el informe.
No hay barandillas en su lugar
En algunas ciudades, el proceso incluye salvaguardas. En Detroit e Indiana, por ejemplo, la policía no puede incluir una coincidencia de reconocimiento facial en una rueda de reconocimiento fotográfica a menos que existan pruebas que la respalden, como huellas dactilares o ADN. El Departamento de Policía de Nueva York no tiene tal regla.
Tampoco registra la frecuencia con la que la herramienta conduce a arrestos erróneos. Si bien las autoridades afirman que la tecnología es solo una parte de una investigación, los críticos afirman que esto es engañoso.
“Incluso si existe una posible coincidencia, el Departamento de Policía de Nueva York no puede y nunca realizará un arresto utilizando únicamente tecnología de reconocimiento facial”, dijo el portavoz del Departamento de Policía de Nueva York, Brad Weekes, a ABC7.
Pero la abogada de Williams, Diane Akerman, niega que: “El trabajo policial tradicional podría haber resuelto este caso o al menos haber evitado que el Sr. Williams pasara por esto”.
La Sociedad de Asistencia Legal, que representó a Williams, solicitó al Departamento de Investigación de la ciudad que investigara las prácticas del Departamento de Policía de Nueva York. En una carta, advirtió que “los casos que hemos identificado son solo la punta del iceberg”.
El grupo también acusó a la División de Inteligencia del Departamento de Policía de Nueva York (NYPD) de eludir la política al contratar a otras agencias, como el Departamento de Bomberos (FDNY), para realizar escaneos de reconocimiento facial que el propio NYPD tiene prohibido hacer. En un caso, el Departamento de Bomberos de Nueva York (FDNY) utilizó el software de inteligencia artificial Clearview, criticado durante mucho tiempo por su secretismo y falta de supervisión, para identificar a un manifestante, lo que resultó en una acusación ahora desestimada. STOP, el Proyecto de Supervisión de Tecnologías de Vigilancia, califica estas soluciones alternativas de “profundamente alarmantes”.
“Todos, incluido el Departamento de Policía de Nueva York (NYPD), saben que la tecnología de reconocimiento facial no es fiable”, dijo Akerman. “Sin embargo, el NYPD ignora incluso sus propios protocolos”.
Un futuro en el limbo
Williams se estaba preparando para convertirse en agente penitenciario en Rikers Island. Pero tras el arresto, el proceso de contratación se estancó.
“Estaba tan enojado…”, declaró a ABC7. “Espero que la gente no tenga que ir a la cárcel por cosas que no hizo”.
Todavía le preocupa que lo arresten. “A veces siento como si tuviera ataques de pánico”, dijo.
El caso de lascivia pública se ha cerrado. No se han presentado cargos contra nadie más.
La tecnología de reconocimiento facial se suele vender como una bendición para las fuerzas del orden, una herramienta para desenmascarar a delincuentes que se esconden a simple vista. Pero, si se usa de forma imprudente, solo crea nuevas víctimas. La historia de Williams muestra lo que sucede cuando un algoritmo poderoso se encuentra con un testigo falible que carece de las protecciones básicas de una buena actuación policial.
Fuente: ZME Science.