Las Tecnologías de Reconocimiento Facial (TRF), desde desbloquear teléfonos inteligentes hasta permitir que los empleadores rastreen la productividad y facilitar la vigilancia policial en protestas, están cada vez más integradas en el tejido de nuestra vida cotidiana. El desarrollo y aplicación de las TRF han aumentado, con proyecciones indicando que el mercado global de reconocimiento facial alcanzará los asombrosos $12.67 mil millones para el 2028.1 Sin embargo, este rápido crecimiento viene acompañado de riesgos crecientes vinculados a la dependencia casual o excesiva del software de reconocimiento facial, lo cual puede infringir significativamente los derechos y libertades individuales.

Un problema destacado es el potencial para el sesgo algorítmico. A pesar de que algunos algoritmos de reconocimiento facial presumen tasas de precisión de clasificación superiores al 90%, estos resultados no se distribuyen uniformemente en todos los grupos demográficos. Las tasas de precisión más bajas a menudo se encuentran entre individuos que son mujeres,2 negros y de entre 18 a 30 años.3 Otra preocupación urgente es la infracción de la privacidad. Con la implementación omnipresente de las TRF, muchos individuos se encuentran sujetos a vigilancia sin su conocimiento o consentimiento. Esto puede ocurrir en varios entornos, desde espacios públicos hasta lugares de trabajo, a menudo sin consentimiento explícito o conocimiento. Tal vigilancia generalizada no solo invade la privacidad personal sino que también fomenta un ambiente de monitoreo continuo, lo que puede llevar a angustia psicológica. El uso no regulado del reconocimiento facial también puede resultar en identificaciones erróneas y las consiguientes ramificaciones legales y sociales. Ya ha habido casos de arrestos y acusaciones falsas debido a errores en las TRF, socavando los derechos de los individuos a un trato justo bajo la ley.

Las implicaciones raciales y de género del reconocimiento facial han sido examinadas a fondo, destacando cómo estas tecnologías pueden exacerbar e intensificar los sesgos existentes. Un caso reciente, sacado a luz en un artículo, involucra a Harvey Murphy Jr., quien está demandando a Macy’s y a la empresa matriz de Sunglass Hut después de ser acusado erróneamente de robo a mano armada, un error atribuido a la tecnología defectuosa de reconocimiento facial.4 La subsiguiente detención injusta de Murphy por casi dos semanas —durante las cuales fue agredido por otros reclusos, sufriendo lesiones permanentes— ilustra las graves consecuencias que pueden derivarse del mal uso o la dependencia excesiva de las TRF, llevando a daños físicos, económicos, psicológicos y de reputación.

El procesamiento de información perjudicial en las tecnologías de reconocimiento facial (TRF) abarca una gama de prácticas que pueden infringir la privacidad, llevar a la discriminación y resultar en otros resultados negativos para los individuos. Aquí hay algunos ejemplos que ilustran estas preocupaciones:

Sesgo Racial y de Género: Se ha demostrado que los sistemas de reconocimiento facial tienen tasas de error más altas para mujeres, personas de color, ancianos y niños debido a los conjuntos de datos sesgados con los que fueron entrenados. Esto puede llevar a la identificación errónea y acusaciones injustas, afectando desproporcionadamente a grupos marginados.

Recolección de Datos sin Consentimiento: La recolección y procesamiento de datos de reconocimiento facial sin el consentimiento informado de los individuos, a menudo realizada en espacios públicos o a través de las redes sociales, viola los derechos de privacidad y la autonomía personal.

Vigilancia Invasiva: Gobiernos y corporaciones usan las TRF para la vigilancia masiva, rastreando los movimientos y actividades de los individuos sin su consentimiento. Este monitoreo generalizado es una intrusión significativa en la privacidad personal y puede inhibir la libertad de expresión y reunión.

Vulnerabilidades de Seguridad de Datos: Almacenar datos sensibles de reconocimiento facial sin medidas de seguridad adecuadas expone a los individuos a riesgos de violaciones de datos. Los datos biométricos filtrados son irremplazables, y su compromiso puede tener implicaciones de por vida para los individuos afectados.

Mal Uso en la Aplicación de la Ley: El uso de tecnologías de reconocimiento facial por parte de las agencias de aplicación de la ley puede llevar a arrestos y detenciones erróneas. Ha habido casos documentados donde individuos fueron identificados erróneamente como sospechosos de crímenes que no cometieron, basados en coincidencias defectuosas de TRF.

Errores en la Toma de Decisiones Automatizadas: Las decisiones basadas en TRF, como la elegibilidad para servicios, empleo o acceso a eventos, pueden ser erróneas debido a inexactitudes en la tecnología. Estas decisiones automatizadas pueden ser difíciles de apelar, dejando a los individuos sin recurso alguno.

Perfilamiento y Segmentación: El uso de TRF para el perfilamiento de individuos o grupos para publicidad dirigida, manipulación política o sistemas de puntuación social, sin transparencia ni responsabilidad, plantea preocupaciones éticas sobre la manipulación y el control.

Exclusión Social y Discriminación: La implementación de TRF puede exacerbar las divisiones sociales reforzando estereotipos y excluyendo o penalizando a individuos basándose en su apariencia. Por ejemplo, el acceso a lugares o servicios podría ser negado basado en procesamiento de datos sesgado o incorrecto.

Impacto Psicológico: El saber que uno está siendo constantemente observado y analizado por TRF puede tener un efecto paralizante en el comportamiento y la libertad de movimiento, llevando a estrés psicológico y una sensación de pérdida de autonomía.

Falta de Mecanismos de Reparación Efectivos: Los individuos afectados por el procesamiento de información perjudicial a través de TRF a menudo tienen opciones limitadas de reparación debido a la naturaleza opaca de la tecnología y las entidades que la utilizan. Esta falta de responsabilidad y transparencia hace que sea desafiante para los individuos impugnar inexactitudes o mal uso.

Regulación de TRF

El 19 de diciembre de 2023, la Comisión Federal de Comercio anunció una acción contra Rite Aid por prácticas injustas asociadas con el uso del sistema de vigilancia TRF para disuadir el robo en sus tiendas y por violar una Orden previa de 2010 que requería un programa de seguridad de la información integral y la retención de documentos para la gestión de proveedores.5 Esta acción es la primera vez que la FTC ha tomado una medida de ejecución contra una compañía por usar IA de manera sesgada e injusta.

La Academia Nacional de Ciencias de EE.UU. sugiere en un nuevo informe que la Casa Blanca debería considerar emitir una nueva orden ejecutiva que describa cómo las agencias federales deberían usar TRF y recomienda que el Instituto Nacional de Estándares y Tecnología (NIST) defina estándares y requisitos mínimos para TRF dependiendo del área de aplicación.6 El informe destaca áreas de preocupación cuando TRF se aplica de manera amplia y sin salvaguardias, permitiendo que la tecnología “cree registros detallados de los movimientos y actividades de las personas y bloquee a individuos específicos de participar en la vida pública.” No sorprendentemente, el informe concluyó que TRF intersecta con la equidad y la raza de varias maneras.7 Los autores instan al presidente a emitir una orden ejecutiva que desarrolle pautas para las agencias federales sobre “el uso apropiado de la tecnología de reconocimiento facial” que tenga en cuenta “tanto las preocupaciones de equidad como la protección de la privacidad y las libertades civiles.” El informe recomienda que el Congreso considere varias acciones legislativas respecto a la tecnología de reconocimiento facial, incluyendo la implementación de límites de almacenamiento para imágenes faciales y plantillas, requiriendo entrenamiento y certificación para operadores y tomadores de decisiones en campos como la aplicación de la ley, promulgando una ley de privacidad federal específica para el reconocimiento facial, o adoptando legislación de privacidad más amplia para abordar prácticas comerciales que afectan la privacidad. Además, sugiere abordar preocupaciones relacionadas con la vigilancia, el acoso y el chantaje.

Conclusion
En conclusión, aunque la tecnología de reconocimiento facial ofrece numerosos beneficios, es crucial equilibrar estos avances con las consideraciones éticas y los riesgos potenciales para la privacidad y los derechos humanos. Una regulación sólida, la transparencia y el uso responsable son clave para asegurar que estas tecnologías se utilicen de manera que respete las libertades individuales y prevenga el daño.

  1. Author Unknown, Facial Recognition Market to Reach $12.67 Billion by 2028, Help Net Security (Mar. 10, 2022), https://www.helpnetsecurity.com/2022/03/10/facial-recognition-market-2028/↩︎
  2. J. Buolamwini & T. Gebru, Facial Recognition Is Accurate, if You’re a White Guy, N.Y. Times (Feb. 9, 2018), https://www.nytimes.com/2018/02/09/technology/facial-recognition-race-artificial-intelligence.html. ↩︎
  3. J. Doe, Face Verification Subject to Varying Age, Ethnicity, and Gender Demographics Using Deep Learning, 10 J. Data Mining Genomics & Proteomics 323 (2019), available at https://www.hilarispublisher.com/open-access/face-verification-subject-to-varying-age-ethnicity-and-genderdemographics-using-deep-learning-2155-6180-1000323.pdf↩︎
  4. S. Boucher, Man Jailed, Raped, and Beaten After False Facial Recognition Match, $10M Lawsuit Alleges, Vice (Date Unknown), https://www.vice.com/en/article/3akekk/man-jailed-raped-and-beaten-after-false-facial-recognition-match-dollar10m-lawsuit-alleges. ↩︎
  5. Federal Trade Commission, Rite Aid Banned from Using AI Facial Recognition After FTC Says Retailer Deployed Technology Without Adequate Notice or Consent (Dec. 19, 2023), https://www.ftc.gov/news-events/news/press-releases/2023/12/rite-aid-banned-using-ai-facial-recognition-after-ftc-says-retailer-deployed-technology-without↩︎
  6. Academies Press (2021), available at [https://nap.nationalacademies.org/catalog/27397/facial-recognition-technology-current-capabilities-future-prospects-and-governance](https://nap.nationalacademies.org/catalog/27397/facial-recognition-technology-current-capabilities-future-prospects-and-governance). ↩︎
  7. National Academies of Sciences, Engineering, and Medicine, Advances in Facial Recognition Technology Have Outpaced Laws, Regulations; New Report Recommends Federal Government Take Action on Privacy, Equity, and Civil Liberties Concerns, National Academies (Jan. 2024), https://www.nationalacademies.org/news/2024/01/advances-in-facial-recognition-technology-have-outpaced-laws-regulations-new-report-recommends-federal-government-take-action-on-privacy-equity-and-civil-liberties-concerns↩︎ ↩︎

One response to “Riesgos para la Privacidad de las Tecnologías de Reconocimiento Facial”

Leave a reply to Privacy Risks of Facial Recognition Technologies – NAVIGATING THE FUTURE OF TECH AND PRIVACY Cancel reply

Previous Post
Next Post

Quote of the week

Civilization is the progress toward a society of privacy. The savage’s whole existence is public, ruled by the laws of his tribe. Civilization is the process of setting man free from men.

~ Ayn Rand