Algoritmos opacos y privacidad diferencial: ¿puede haber transparencia sin comprometer la protección?

Autores/as

  • Juan Emmanuel Delva Benavides
  • Vania Valeria Mendez Gonzalez

DOI:

https://doi.org/10.21678/forseti.v14i22.2834

Palabras clave:

Algoritmos opacos, Privacidad diferencial, Protección de datos, Inteligencia artificial, Derecho digital, Transparencia Algorítmica, Artificial intelligence, Digital law

Resumen

El presente artículo analiza la tensión entre transparencia algorítmica y privacidad diferencial en el contexto de implementación creciente de sistemas de Inteligencia Artificial en ámbitos sensibles. A través de un análisis interdisciplinario que integra perspectivas jurídicas, tecnológicas y éticas, se examina cómo los algoritmos opacos comprometen la rendición de cuentas y cómo la privacidad diferencial, aunque protege datos personales, puede socavar la exactitud algorítmica.

Biografía del autor/a

Juan Emmanuel Delva Benavides

Profesor Investigador en la Universidad de Guadalajara. Doctor en Derecho, maestro en tecnologías y abogado por parte de la UdeG. Socio fundador de la Asociación Latinoamericana de Derecho, Gobierno y Nuevas Tecnologías.

Vania Valeria Mendez Gonzalez

Estudiante de la carrera de Negocios Internacionales de la Universidad de Guadalajara y técnico en programación por parte del Centro de Bachilleres Industriales y Tecnológicos.

Descargas

Publicado

2025-07-31

Cómo citar

Delva Benavides, J. E., & Mendez Gonzalez, V. V. (2025). Algoritmos opacos y privacidad diferencial: ¿puede haber transparencia sin comprometer la protección?. Forseti. Revista De Derecho, 14(22), 227–245. https://doi.org/10.21678/forseti.v14i22.2834

Número

Sección

Artí­culos