Description: New York Police Department’s use of facial recognition deployment of surveillance cameras were shown using crowdsourced volunteer data reinforcing discriminatory policing against minority communities.
Entidades
Ver todas las entidadesPresunto: un sistema de IA desarrollado por unknown e implementado por New York Police Department, perjudicó a racial minorities.
Estadísticas de incidentes
ID
472
Cantidad de informes
1
Fecha del Incidente
2016-10-08
Editores
Khoa Lam
Informes del Incidente
Cronología de Informes
amnesty.org · 2022
- Ver el informe original en su fuente
- Ver el informe en el Archivo de Internet
Los neoyorquinos que viven en áreas con mayor riesgo de paradas y cacheos por parte de la policía también están más expuestos a la tecnología invasiva de reconocimiento facial, según ha revelado una nueva investigación de Amnistía Internaci…
Variantes
Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents
Don’t Believe the Algorithm
· 4 informes
Discrimination in Online Ad Delivery
· 27 informes
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents
Don’t Believe the Algorithm
· 4 informes
Discrimination in Online Ad Delivery
· 27 informes