Description: Google’s automated detection of abusive images of children incorrectly flagged a parent’s photo intended for a healthcare provider, resulting in a false police report of child abuse, and loss of access to his online accounts and information.
Entidades
Ver todas las entidadesPresunto: un sistema de IA desarrollado e implementado por Google, perjudicó a a software engineer named Mark y parents using telemedicine services.
Estadísticas de incidentes
ID
303
Cantidad de informes
2
Fecha del Incidente
2022-08-21
Editores
Khoa Lam
Informes del Incidente
Cronología de Informes
nytimes.com · 2022
- Ver el informe original en su fuente
- Ver el informe en el Archivo de Internet
Mark notó que algo andaba mal con su niño pequeño. El pene de su hijo se veía hinchado y le dolía. Mark, un padre que se queda en casa en San Francisco, tomó su teléfono inteligente Android y tomó fotos para documentar el problema y poder s…
siliconangle.com · 2022
- Ver el informe original en su fuente
- Ver el informe en el Archivo de Internet
La aplicación de la inteligencia artificial en varios aspectos de la vida ha sido mayormente positiva, pero ¿qué sucede cuando los algoritmos de aprendizaje automático no pueden detectar la diferencia entre una foto de salud inocente y mate…
Variantes
Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.