
El entorno controlado de pruebas de la Ley de IA ya está en marcha
¡Gran noticia para la regulación de la Inteligencia Artificial en España! El Consejo de Ministros aprobó un hito clave el 7 de noviembre: el Real Decreto 817/2023, que establece un entorno controlado de pruebas, complementando la futura Ley de Inteligencia Artificial.
El entorno controlado de pruebas de la Ley de Inteligencia Artificial ya está en marcha.
Este sandbox, en colaboración con la Comisión Europea, evaluará el cumplimiento de la propuesta de Reglamento de la Unión Europea sobre IA.
Analizamos su funcionamiento y objetivos, más abajo.
Además, desglosamos la Proposición de Ley Orgánica que regula simulaciones de imágenes y voces generadas por IA.
¿En qué consiste el sandbox regulatorio de la Ley de Inteligencia Artificial?
En plena expansión de la Inteligencia Artificial, el Parlamento y el Consejo Europeo trabajan en una normativa para regular esta tecnología en los países de la UE.
En paralelo, el Gobierno de España, en colaboración con la Comisión Europea, está liderando la implementación del primer entorno controlado de pruebas con el fin de evaluar la efectividad de los requisitos para sistemas de Inteligencia Artificial de alto riesgo.
Este sandbox tiene como fin establecer un marco regulatorio adecuado que garantice la confianza, la seguridad y la protección de la privacidad de datos ante el uso de herramientas basadas en IA.
Consiste en un espacio controlado en el que las empresas y personas participantes van a poder experimentar con soluciones de IA bajo la supervisión de las autoridades competentes.
Así se podrán validar las soluciones de IA que cumplan con los requisitos exigidos.
¿Cuáles son los objetivos del entorno de pruebas para la IA de alto riesgo?
Los objetivos principales son:
- Posibilitar la cooperación entre usuarios y proveedores de IA.
- Definir guías de buenas prácticas facilitando las comunicaciones entre autoridades y empresas.
- Fomentar la claridad en los requisitos normativos sobre IA.
- Transferir conocimientos técnicos sobre el cumplimiento de la legislación.
- Fomentar la innovación.
El Real Decreto recoge la creación de un comité asesor de expertos para supervisar y desarrollar las pruebas, asegurando estándares y resultados valiosos.
Requisitos de elegibilidad para la participación en el entorno
La participación en el entorno controlado de pruebas está abierta a aquellos proveedores de IA y usuarios residentes en España o que tengan un establecimiento permanente en España.
También podrán participar:
- Agrupaciones de entidades con representante en territorio español.
- Personas jurídicas privadas, administraciones públicas y entidades del sector público institucional que utilicen sistemas de IA de alto riesgo, sistemas de propósito general o modelos fundacionales.
El proveedor IA solicitante presentará su solicitud de participación con uno o varios sistemas de inteligencia artificial. Dicha solicitud se realizará de forma electrónica.
El proveedor IA solicitante podrá presentar una o varias propuestas de sistema de inteligencia artificial de alto riesgo, de propósito general, o modelo fundacional.
Este proyecto permitirá crear directrices y guías para implementar el nuevo reglamento. Además, facilitará la elaboración de un informe con buenas prácticas y lecciones aprendidas basadas en pruebas y experimentación práctica.
Esto es con el fin de asegurar la correcta implementación y funcionamiento de los sistemas de IA en la normativa futura sobre Inteligencia Artificial.
¿Qué tipo de Inteligencia Artificial se considera de alto riesgo?
¿Cómo es la proposición de Ley Orgánica de regulación de las simulaciones de imágenes y voces generadas con la IA?
El pasado 13 de octubre se registró en el Congreso una proposición de Ley Orgánica de regulación de las simulaciones de imágenes y voces de personas generadas a través de la Inteligencia Artificial.
El objetivo de esta propuesta es frenar las deepfake o vídeos hiperrealistas.
¿Qué es una deepfake?
Una deepfake es una pieza visual, auditiva o audiovisual que simula la realidad y que consiguen generar falsas imágenes y/o voces de personas.
Puntos clave de la proposición de la Ley Orgánica de regulación de las simulaciones de imágenes y voces generadas con la IA
La IA tiene efectos muy positivos pero también supone ciertos riesgos presentando ciertos hándicaps a la hora de determinar qué es verdadero y qué es falso.
Cada vez es más difícil determinar qué acciones son realizadas por una persona y qué acciones son meramente simulaciones generadas por terceros usando la Inteligencia Artificial.
El Parlamento Europeo emitió en julio de 2021 un informe (Tackling deepfakes in European policy. European Parliamentary Research Device) en el que se enumeraron las diferentes categorías de riesgos asociadas al uso de la IA.
Entre estas categorías se incluyeron la difamación, intimidación, fraude, manipulación mediática y electoral o robo de identidad, entre otras.
La generación de contenidos audiovisuales a través de Inteligencia Artificial plantea desafíos significativos en términos de privacidad e intimidad.
La posibilidad de crear material que se asemeje o imite a individuos o grupos sin su consentimiento puede dar lugar a violaciones graves de la privacidad.
En este contexto, es evidente que el marco normativo español actual carece de disposiciones específicas que aborden de manera adecuada la autorización para la difusión de alteraciones de imágenes o voces generadas por inteligencia artificial.
Por ello, se considera crucial que las autoridades consideren la implementación de regulaciones claras y específicas para abordar estos problemas emergentes.
Estas regulaciones podrían proporcionar directrices sobre cómo obtener el consentimiento adecuado, así como establecer medidas para prevenir y sancionar el uso indebido de contenidos generados por inteligencia artificial en el ámbito audiovisual.
La protección de la privacidad en un mundo cada vez más digital y tecnológico es esencial, y las leyes deben evolucionar para abordar los desafíos únicos que surgen con la rápida adopción de tecnologías como la Inteligencia Artificial en la creación de contenidos.
La futura Ley de Inteligencia Artificial
La propuesta de marco legal presentada por la Comisión Europea en abril de 2021 reflejó un enfoque integral hacia la regulación de la inteligencia artificial (Ley de Inteligencia Artificial).
Este marco vino a clasificar los productos basados en IA en diferentes categorías según el riesgo que presenten, y estableció estándares para cada umbral de riesgo.
Además, abordó específicamente la necesidad de regulación en el ámbito de la interacción con personas y la generación de contenidos por parte de sistemas de IA.
En relación con la generación de contenidos se reconoce que ciertos sistemas de IA pueden conllevar riesgos específicos de suplantación o falsificación, independientemente de su clasificación de riesgo.
En el caso específico de la generación de contenidos visuales, auditivos o audiovisuales, la propuesta ya estableció la obligación de los usuarios de sistemas de IA para etiquetar de manera adecuada el contenido generado artificialmente.
Esto es especialmente relevante cuando dicho contenido incluya erróneamente a las personas a pensar que es auténtico.
La transparencia en la creación y manipulación de imágenes, archivos de audio o vídeos generados por IA es esencial para mantener la integridad y la confianza en la información visual y auditiva.
¿Qué modificaciones incluye la Ley Orgánica sobre Inteligencia Artificial?
La propuesta de Ley Orgánica recoge estas modificaciones:
- Ley 13/2022, de 7 de julio, General de Comunicación Audiovisual: propone modificaciones para delimitar las infracciones contra personas físicas o jurídicas responsables de la utilización de inteligencia artificial que vulneren las condiciones establecidas en la normativa.
- Código Penal: sugiere la creación de un artículo para clasificar como injuria la simulación de imágenes o voces de personas generadas por inteligencia artificial sin autorización, con la intención de menoscabar el honor, fama, dignidad o estimación de una persona.
- Ley 1/2022, de 7 de enero, de Enjuiciamiento Civil: pretende incluir medidas cautelares específicas para facilitar la retirada urgente de imágenes o audios generados con inteligencia artificial sin autorización.
- Ley Orgánica 3/2018, de 5 de diciembre, de Protección de Datos Personales y garantía de los derechos digitales: se propone la creación de un nuevo artículo para dotar de mayor protección al tratamiento de datos generados por inteligencia artificial.
- Ley Orgánica 5/1985, de 19 de junio, del Régimen Electoral General: incluye un nuevo delito electoral para sancionar la difusión maliciosa, durante un proceso electoral, de imágenes o audios de personas candidatas alterados o recreados mediante inteligencia artificial.
Además, se plantea la creación del Consejo de Participación Ciudadana para la supervisión y evaluación de la Inteligencia Artificial y también se propone el establecimiento del Consejo Consultivo sobre el uso de la Inteligencia Artificial.
Mientras tanto, hasta que se especifiquen las nuevas normativas, surgen dudas en torno a la IA, como el importante debate generado hace unos meses: ¿ChatGPT estaría cumpliendo con la Ley de Protección de Datos?
¿Cumple ChatGPT con la Ley de Protección de Datos?
La principal problemática de ChatGPT es que en su página web:
- No se recaba el consentimiento para el tratamiento de los datos que se generan durante el uso de ChatGPT.
- No se informa sobre cuál es la finalidad de la información que se recaba.
- La información recabada se puede trasladar a terceros.
Además, hace unos meses un problema técnico de ChatGPT expuso los títulos de sesiones de chats de algunos usuarios produciéndose una brecha de datos personales.
Algunos usuarios vieron las conversaciones de otros.
Es importante entender que ChatGPT aprende de la información proporcionada y esto puede conllevar el uso de conversaciones internas y de documentos que sean confidenciales. Se puede revelar información sensible sin querer.
Asimismo, ChatGPT no incluye ninguna medida para verificar la edad de los usuarios.
Por ello, Italia decidió prohibir el uso entre sus ciudadanos hace unos meses.
Aunque ya vuelve a estar operativo el servicio de ChatGPT en Italia, tras haber cumplido una serie de condiciones impuestas por las autoridades pertinentes, otros países como España podrían seguir los mismos pasos.
La Agencia Española de Protección de Datos (AEPD) ha estado realizando actuaciones de investigación para ver si existe un posible incumplimiento de la normativa.
¿Qué es y cómo funciona ChatGPT?
ChatGPT es una herramienta de Inteligencia Artificial que se centra en recopilar grandes cantidades de texto para aprender a predecir la probabilidad de una palabra según su contexto.
Las respuestas de ChatGPT ganan precisión cuantos más datos recopile ChatGPT, pero ¿de dónde recoge ChatGPT los datos?
¿Cómo obtiene la información ChatGPT?
ChatGPT recoge la información de datos que recopila vía blogs, periódicos, páginas webs o foros.
La cuestión es que los datos recogidos no pasan ningún tipo de filtro y se recogen aunque incluyan datos personales o confidenciales, por lo que se estarían recogiendo de manera ilícita.
Por ello, Italia blindó durante semanas el uso de ChatGPT y ahora la AEPD está investigando los riesgos que podría suponer.
¿Qué datos confidenciales recoge ChatGPT?
Cuando usas por primera vez ChatGPT tienes que crear tu propia cuenta. Para ello, es necesario que incluyas:
- Nombre
- Número de móvil
- Contraseña
Después, ya puedes comenzar a realizar consultas a esta herramienta de IA. ¿Qué sucede con las consultas que realizas en ChatGPT?
ChatGPT va recopilando las consultas que realizas y esto conlleva una problemática y es que poco a poco va a tener información de cuál es tu comportamiento en Internet y de cuáles son tus necesidades.
¿Qué dice ChatGPT sobre cuál es su política de privacidad? Le preguntamos directamente a esta herramienta de IA y nos ofrece la siguiente información:
«Como modelo de lenguaje de OpenAI, no tengo acceso a información personal sobre los usuarios a menos que se me proporcione directamente en el transcurso de la conversación.
Respeto la privacidad de los usuarios estoy diseñado para cumplir con altos estándares de confidencialidad y seguridad. Mi objetivo principal es proporcionar información útil y responder preguntas de manera efectiva.
Recuerda evitar compartir información personal sensible durante nuestras interacciones.
Para obtener detalles completos sobre la política de privacidad de OpenAI, te recomendaría visitar el sitio web oficial de OpenAI y revisar su política de privacidad actualizada».
Si accedemos a la política de privacidad de ChatGPT se indica que recopila información personal cuando el usuario crea una cuenta para usar el servicio.
En esta información de cuenta se incluyen el nombre, información de contacto o información de la tarjeta de pago.
También recopila contenido cuando el usuario realiza cuestiones en la plataforma.
De manera automática, ChatGPT recibe datos de registro, datos de uso e información del dispositivo. También se usan cookies para administrar los servicios.
¡IMPORTANTE! ChatGPT indica en su política de privacidad de datos que puede proporcionar información personal a terceros sin previo aviso, a menos que lo exija la ley.
Por tanto, puede proporcionar nuestra información profesional a vendedores y proveedores de servicios, por ejemplo.
Entonces, ¿están nuestros datos personales seguros?
Antes de nada, hay que tener en cuenta que un bufete de abogados ubicado en California presentó una demanda colectiva contra OpenAI por recopilar datos personales con el fin de entrenar a ChatGPT.
En la demanda indicaron que ChatGPT estaría usando información sin el consentimiento informado de millones de usuarios, entre los que se incluirían datos de niños y niñas.
¿Puede vender ChatGPT nuestros datos a terceros?
Así es, ChatGPT indica que no necesita consentimiento para proporcionar datos personales a terceros.
Podría ser que desde ChatGPT vendieran esos datos a compañías de publicidad y que éstas estudiaran nuestro comportamiento para ofrecernos productos que creemos necesarios.
Para evitar que se filtren datos confidenciales es importante no incluir tarjetas de crédito ni documentación de alto riesgo en esta herramienta de IA.
Si quieres formar a tu plantilla y ofrecerles tips para mantener a salvo los datos personales y empresariales, te recomendamos nuestro Curso de Protección de datos y Garantía de los Derechos Digitales.
¿Cumple ChatGPT con la privacidad de datos?
Todo lo mencionado anteriormente nos lleva a pensar que ChatGPT estaría incumpliendo con la privacidad de datos.
Según recoge el Reglamento (UE) 2016/679 ChatGPT no cumpliría con la privacidad de datos porque no sabemos cuál es el uso que se va a hacer de nuestros datos personales e información confidencial.
Además, ChatGPT no incluye en su web un aviso legal y tampoco indica datos fiscales del responsable.
¿Es posible desactivar el historial de tus datos en ChatGPT?
Si quieres borrar tu historial de datos en ChatGPT puedes hacerlo en pocos pasos.
Deberás acceder a ChatGPT y entrar con tu usuario. Una vez dentro de tu sesión verás en la parte final de la pantalla, a la izquierda, tu email.
Tendrás que hacer clic en los tres puntitos que aparecen al lado de tu email y podrás visualizar una caja con diferentes opciones. Tendrás que seleccionar ‘Settings’.
Luego, harás clic en ‘Data controls’ y tendrás que quitar la selección a ‘Chat History & Training’.
¡Listo! Tu historial de datos en ChatGPT ya estaría desactivado.
¿Se elimina el historial de forma inmediata? No, el historial se mantendrá durante 30 días.
¿Los datos que ofrece ChatGPT son verídicos?
Es importante tener en cuenta otro punto: la información que ofrece ChatGPT no pasa ningún filtro y puede que esté sesgada.
A través de ChatGPT podrían surgir y expandirse fake news y desinformaciones.
Además, ChatGPT no permite tener constancia de dónde procede la información que ofrece por lo que es muy sencillo plagiar el contenido y esto podría afectar a los derechos de propiedad intelectual.
¿Cuál es el Reglamento de Inteligencia Artificial de la UE?
Aunque, como comentamos, no existe aún un Reglamento como tal, en Europa y en España ya están trabajando en la Ley de Inteligencia Artificial.
Esta Ley va a tener como fin garantizar que los sistemas de IA usados en la UE sean seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente.
Estaremos muy pendientes de todas las actualizaciones que surja en torno a la futura normativa.
¿Conocías el sandbox regulatorio de la IA? ¿Te preocupan los riegos que supone el uso de herramientas de Inteligencia Artificial, como ChatGPT?
No olvides dejar más abajo tus comentarios, ¡nos encanta leerte!