La Carta de Derechos Digitales fue aprobada por el gobierno español en 2021. Es un conjunto de principios que busca proteger a los ciudadanos en el entorno digital, abarcando áreas como privacidad y protección de datos; seguridad digital; igualdad y no discriminación; acceso a la información y la participación digital; libertad de expresión y derechos de autor; protección de menores o inclusión digital.
Esta publicación, que ha servido de inspiración a posteriores legislaciones y debates en Europa, Latinoamérica y la ONU, se enfrenta hoy al reto de aterrizar en pleno auge de la inteligencia artificial, cuando herramientas como ChatGPT y Copilot han cambiado sustancialmente el modo en el que trabajamos.
De todo ello habló Javier Miranda, director de Empleo, Talento y PRL de DigitalES, en el transcurso del ISMS Forum, un evento sobre ciberseguridad que congregó a 1.300 asistentes. Allí, abogó por la importancia de educar en el uso de la inteligencia artificial desde edades muy tempranas y recordó que para el correcto desarrollo de esta herramienta se necesitan perfiles especializados no solo en tecnología, sino también en ética, filosofía o filología.
Para Miranda, la Carta de Derechos Digitales puede ayudar a establecer un marco normativo, sentando las bases para el desarrollo de leyes y regulaciones que protejan los derechos digitales de manera integral y coherente. “Tener una carta ya ayuda bastante, aunque no tenga capacidad punitiva”, dijo.
Además, el texto puede servir para orientar a empresas y organismos públicos, fomentar la conciencia y la educación y promover la innovación responsable. “Al establecer principios claros, la Carta puede incentivar a las empresas tecnológicas a diseñar productos y servicios que respeten los derechos de los usuarios”, sostuvo.
Eso sí, la Carta no está exenta de desafíos ni de dificultades. Su implementación efectiva requerirá de una aplicación coherente en todos los niveles gubernamentales, de la colaboración entre sectores público, privado y sociedad civil y de la adaptación continua a los rápidos cambios tecnológicos.
El dilema de la transparencia algorítmica
Uno de los asuntos cruciales para lograr esta defensa de los derechos digitales es lo que se conoce como “transparencia algorítmica”. Su existencia es vital para garantizar la responsabilidad, la no discriminación y la confianza pública en los sistemas de IA, ya que permite a los usuarios, reguladores y expertos independientes auditar y entender cómo funcionan los algoritmos.
Sin embargo, las empresas argumentan que la divulgación de detalles de sus algoritmos y modelos de aprendizaje automático podría comprometer sus secretos comerciales y su ventaja competitiva.
Desde una perspectiva legal, los secretos comerciales están protegidos por leyes de propiedad intelectual en la mayoría de las jurisdicciones. Las empresas tienen un incentivo legítimo para proteger sus inversiones y su ventaja competitiva. Por otro lado, los principios de rendición de cuentas y no discriminación pueden entrar en conflicto con estos derechos.
Cinco estrategias para lograr un equilibrio
¿Cómo resolver este dilema? Javier Miranda apunta cinco estrategias para lograr un equilibrio que pueda conciliar ambos intereses. La primera de ellas es el empleo de auditorías externas por parte de terceros independientes, como expertos en ética y derechos civiles, sin divulgar todos los detalles del código o los modelos.
Otro camino es la divulgación selectiva y limitada de información. Las empresas pueden compartir datos relevantes sobre los algoritmos, como las variables de entrada, los objetivos y las restricciones, sin revelar todos los detalles de implementación. También -apunta Miranda- se pueden desarrollar marcos de certificación y sellos de confianza que permitan a las empresas demostrar el cumplimiento de principios de transparencia y equidad sin revelar secretos comerciales.
Por último, el experto apunta dos estrategias más: la creación de marcos regulatorios flexibles, que equilibren los requisitos de transparencia con la protección de los secretos comerciales, quizás con excepciones o salvaguardas para casos especiales; y la colaboración público-privada
En resumen, si bien existe una tensión inherente, es posible lograr un equilibrio razonable entre la transparencia algorítmica y la protección de los secretos empresariales a través de un enfoque colaborativo. Trabajar en ello debe ser objetivo de todos.
The post Los desafíos de la Carta de Derechos Digitales y el dilema de la transparencia algorítmica appeared first on Asociación DigitalES.