En el conversatorio impartido por las expositoras Mónica Arenas y Mercedes Serrano, se trató el tema de la regulación de la inteligencia artificial al igual que su relación con la protección de datos. Desde un principio, se pudo observar la gran laguna normativa que existe y rodea lo que es la regulación de la inteligencia artificial. Dentro de este conversatorio, se trató el Reglamento de Inteligencia Artificial redactado y promulgado por la Unión Europea [1]. La discusión se extendió a los Derechos Fundamentales en el contexto de los Datos Personales, donde se examinaron casos recientes que, en el tiempo previsto que tiene la ley de ser implementada (pretende tomar efecto a partir del 2026 en lo que las compañías se adaptan), pueden sentar precedentes importantes en esta área. La recopilación de datos personales fue un tema que centró considerablemente el debate.
Dentro de este mismo ámbito, el uso de estos datos en la Inteligencia Artificial ocupó el protagonismo del conversatorio. Se discutieron los beneficios potenciales de la IA en diversos sectores, pero también se advirtió sobre los riesgos de sesgo y discriminación algorítmica, donde una de las expositoras incluso propuso la creación de uno o varios subcomités para tratar el manejo de estas herramientas. Asimismo, los Derechos Fundamentales relacionados con la regulación de sistemas de IA fueron objeto de un análisis detallado. Se presentó el caso de estudio de España en cómo ha decidido abordar la implementación de las regulaciones en esta área, donde las expositoras debatieron sobre la viabilidad de adoptar enfoques similares en nuestra jurisdicción. La sesión concluyó con una discusión sobre la interrelación entre los Derechos Fundamentales de los Datos Personales y la regulación normativa de los sistemas de Inteligencia Artificial, reconociéndose la complejidad de este tema y la necesidad de un enfoque multidisciplinario para abordarlo adecuadamente.
El Reglamento de IA de la Unión Europea: valores, principios y fiabilidad
Uno de los ejes fundamentales del conversatorio fue la relación, casi fusión, entre lo que es la materia de Protección de Datos Personales y la Inteligencia Artificial. La Dra. Mercedes Serrano hizo un gran aporte en cuanto a este tema. Serrano abordó ampliamente el Reglamento de Protección de Inteligencia Artificial de la Unión Europea [1], el cual integra los valores y principios de la Unión a través de un marco uniforme que busca regular la IA en base a los niveles de riesgo que presentan las mismas a los derechos fundamentales, tomando en consideración los vastos sectores en los que permea la IA.
Dentro de estos valores, Serrano denota que, ante todo, en cuanto a materia de regulación de IA, se debe respetar la salud, seguridad y derechos fundamentales, el estado de derecho, los principios del estado democrático y del estado social. Solo de esta manera la IA puede quedar regulada, con fines de que la materia generada por esta inteligencia artificial sea fiable y se centre en la persona. En el marco de este reglamento, la fiabilidad de la materia generada se centra en las directrices éticas mencionadas en el mismo; un sistema que genere confianza entre los ciudadanos, las instituciones y el estado [2].
De lo expuesto surge la siguiente interrogante: si las directrices éticas enraizadas en el reglamento contemplan la información fiable, ¿cómo prevé el Reglamento los casos en que las IA alucinan o se basan en sesgos algorítmicos y empiezan a proporcionar información no fiable? De esta misma interrogatoria nace otra: ¿cómo una Inteligencia Artificial genera confianza, y cómo se refleja esto en el reglamento?
La relación entre el Reglamento de IA y el RGPD
Ciertamente, esta confianza se construye sobre los aspectos materiales de la IA: los sistemas prohibidos por el reglamento y los sistemas de alto riesgo. Dentro de esto podemos observar la relación entre el Reglamento de IA y el de Protección de Datos. Se pueden apreciar los principios de tratamiento plasmados en el Art. 5 del RGPD [3] al igual que las Bases de Legitimación del Art. 6 del mismo reglamento. Serrano hizo especial énfasis en recalcar que cualquier norma que quiera regular la materia debe cumplir con estos principios.
A pesar de esto, que una IA utilice datos personales no significa que se encuentre automáticamente bajo la protección de los datos de carácter personal. Estos deben ser tutelados por los reglamentos de protección de datos. Por lo cual, se hace la distinción en torno a los sistemas de IA de alto riesgo: aquellos que afectan severamente los derechos fundamentales de manera controlable, relacionándose con casos en que a una IA se le proporcionan datos de carácter personal con fines de generar un resultado. Considerando lo anterior, se debe recalcar que si se usan estos datos, se deben tomar en cuenta los mecanismos proporcionados por el reglamento para salvaguardar los derechos fundamentales de la privacidad: Derecho de Acceso [4], Derecho de Rectificación [5], Derecho de Cancelación [6], Derecho de Oposición [7] y el Derecho a no ser objeto de decisiones basadas exclusivamente en el tratamiento automatizado de la información [8].
La regulación basada en riesgo y sus ámbitos de aplicación
Concentrándose más en la regulación basada en riesgo, esta se encuentra tipificada en el Reglamento de IA dentro de sus artículos 5, 6 y Anexo III [1], de los cuales se hace imperativo que no se puede regular el ejercicio de los derechos fundamentales al tratar de regular la IA. Por ello, se establecen limitaciones en los siguientes ámbitos: biometría; infraestructuras críticas; educación y formación profesional; empleo, gestión de los trabajadores y autoempleo; servicios públicos y privados esenciales; garantía del cumplimiento del derecho; migración, asilo y control de fronteras; y administración de justicia y procesos democráticos.
De esta parte del conversatorio surge la siguiente interrogante, particularmente relevante para los operadores jurídicos: ¿con cuáles limitaciones se encuentra la utilización de Inteligencia Artificial en su implementación en sistemas jurídicos prácticos? ¿Cuáles intervenciones humanas pueden ser reemplazadas o asistidas por IA en el ámbito del derecho? (análisis de pruebas, investigación de delitos, redacción de sentencias, entre otros).
Derechos digitales, percepción humana y los límites de la confianza en la IA
Cerrando el conversatorio, resultó particularmente interesante la discusión planteada por la Dra. Mónica Arenas en cuanto a los derechos digitales versus los derechos tradicionales [9], de lo cual surge la interrogante: ¿qué garantías actuales existen y hacen vinculantes estos derechos emergentes?
En otra vertiente del debate, se discutieron los peligros de la IA en cuanto a la percepción de sus datos en base a la naturaleza humana de tomar por ciertos los datos proporcionados por una máquina. Este punto resulta esencial: comprender que los datos proporcionados a una IA son los que determinan sus resultados implica una responsabilidad activa tanto del diseñador como del usuario del sistema, y sitúa la calidad y el origen de los datos en el centro del debate regulatorio.
REFERENCIAS
[1] Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial (Reglamento de Inteligencia Artificial). Diario Oficial de la Unión Europea, L 2024/1689.
[2] Comisión Europea. "Ethics Guidelines for Trustworthy AI." High-Level Expert Group on Artificial Intelligence, abril de 2019. https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai.
[3] Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales (RGPD), artículo 5. Diario Oficial de la Unión Europea.
[4] RGPD, artículo 15: Derecho de Acceso del interesado.
[5] RGPD, artículo 16: Derecho de Rectificación.
[6] RGPD, artículo 17: Derecho de Supresión ("derecho al olvido").
[7] RGPD, artículo 21: Derecho de Oposición.
[8] RGPD, artículo 22: Decisiones individuales automatizadas, incluida la elaboración de perfiles.
[9] Arenas, Mónica. Intervención en el conversatorio "La Protección de Datos en la Inteligencia Artificial", 23 de julio de 2024.