fbpx

Así será la Ley de Inteligencia Artificial: esto es todo lo que debes saber

25 marzo, 2024
Así será la Ley de Inteligencia Artificial: esto es todo lo que debes saber

¡Gran noticia para la regulación de la Inteligencia Artificial! El pleno del Parlamento Europeo ha aprobado con un amplio apoyo la Ley de Inteligencia Artificial, que garantiza la seguridad y el respeto de los derechos fundamentales a la vez que impulsa la innovación.

Así será la Ley de Inteligencia Artificial: esto es todo lo que debes saber. Tienes toda la info más abajo.

Además, te recordamos que el pasado 7 de noviembre de 2023 se produjo otro hito clave: el Consejo de Ministros aprobó el Real Decreto 817/2023, que establece un entorno controlado de pruebas, con el fin de complementar la futura Ley de Inteligencia Artificial.

El entorno controlado de pruebas de la Ley de Inteligencia Artificial ya está en marcha.

Este sandbox, en colaboración con la Comisión Europea, está evaluando el cumplimiento de la propuesta de Reglamento de la Unión Europea sobre IA.

Analizamos su funcionamiento y objetivos, más abajo.

Además, desglosamos la Proposición de Ley Orgánica que regula simulaciones de imágenes y voces generadas por IA.

 

¿Cómo será la futura Ley de Inteligencia Artificial?

La futura Ley de Inteligencia Artificial tiene dos objetivos principales:

  • Garantizar que los sistemas de IA usados en la Unión Europea sean seguros y respeten los derechos de los ciudadanos.
  • Fomentar la inversión y la innovación en el ámbito de la IA en Europa.

 

¿A quiénes se aplicará la Ley de Inteligencia Artificial?

La futura Ley de IA será de aplicación a agentes públicos y privados, de dentro y fuera de la UE, siempre y cuando la IA se introduzca en el mercado y su uso afecte a los ciudadanos.

Por tanto, podrá afectar a:

  • Proveedores.
  • Implementadores de sistemas de inteligencia artificial de alto riesgo.

Además, los importadores de sistemas de inteligencia artificial tendrán que garantizar que:

  • El proveedor extranjero haya efectuado el procedimiento adecuado de evaluación de la conformidad.
  • Tenga un marcado europeo de conformidad (CE).
  • Vaya acompañado de la documentación y las instrucciones de uso necesarias.

La Ley de IA prohibirá ciertas aplicaciones de Inteligencia Artificial que atenten contra los derechos de la ciudadanía, como:

  • Los sistemas de categorización biométrica basados en características sensibles.
  • La captura indiscriminada de imágenes faciales de internet o grabaciones de cámaras de vigilancia para crear bases de datos de reconocimiento facial.

También se van a prohibir los sistemas de puntuación ciudadana y la IA que manipule el comportamiento humano.

 

Banner Curso de Inteligencia Artificial para Pymes

¿Cuándo será aplicable la Ley de IA?

Tras su adopción por el Parlamento Europeo y el Consejo, la Ley de IA entrará en vigor a los 20 días de su publicación en el Diario Oficial.

Será aplicable 24 meses después de su entrada en vigor, de la siguiente forma:

  • 6 meses después de la entrada en vigor: los Estados miembros irán eliminando progresivamente los sistemas prohibidos.
  • 12 meses después: serán aplicables las obligaciones de la gobernanza de la inteligencia artificial de uso general.
  • 24 meses después: se aplicarán todas las normas de la Ley de IA, incluidas las obligaciones relacionadas con los sistemas de alto riesgo definidas.
  • 36 meses después: serán aplicables las obligaciones relacionadas con los sistemas de alto riesgo.

Cada Estado miembro deberá designar una o varias autoridades nacionales competentes para supervisar su aplicación y ejecución, así como para realizar actividades de vigilancia del mercado.

 

¿Cuáles serán las sanciones por incumplir la Ley de IA?

El Reglamento fija estos umbrales:

  • Hasta 35 millones de euros o el 7 % del volumen de negocios anual total a escala mundial del ejercicio financiero anterior, si este importe fuera superior, por las infracciones por incumplimiento o prácticas prohibidas en relación con los requisitos sobre los datos.
  • Hasta 15 millones de euros o el 3 % del volumen de negocios anual total a escala mundial del ejercicio financiero anterior por el incumplimiento de cualquier otro requisito u obligación del Reglamento, incluidas las infracciones de las normas sobre los modelos de inteligencia artificial de uso general.
  • Hasta 7,5 millones de euros o el 1,5 % del volumen de negocios total anual a escala mundial del ejercicio anterior por el suministro de información incorrecta, incompleta o engañosa a los organismos notificados y a las autoridades nacionales competentes en respuesta a una solicitud.

 

El entorno controlado de pruebas de la Ley de IA ya está en marcha 

En plena expansión de la Inteligencia Artificial y mientras el Parlamento y el Consejo Europeo trabajan en una normativa para regular esta tecnología en los países de la UE:

En paralelo, el Gobierno de España, en colaboración con la Comisión Europea, está liderando la implementación del primer entorno controlado de pruebas con el fin de evaluar la efectividad de los requisitos para sistemas de Inteligencia Artificial de alto riesgo.

 

¿En qué consiste el sandbox regulatorio de la Ley de Inteligencia Artificial?

Este sandbox tiene como fin establecer un marco regulatorio adecuado que garantice la confianza, la seguridad y la protección de la privacidad de datos ante el uso de herramientas basadas en IA.

Consiste en un espacio controlado en el que las empresas y personas participantes van a poder experimentar con soluciones de IA bajo la supervisión de las autoridades competentes.

Así se podrán validar las soluciones de IA que cumplan con los requisitos exigidos.

El primer entorno de pruebas de Inteligencia Artificial se centrará en evaluar los requisitos aplicables a los sistemas de inteligencia artificial de alto riesgo, como pueden ser productos sanitarios, educación o la gestión de personas trabajadoras.

 

¿Cuáles son los objetivos del entorno de pruebas para la IA de alto riesgo?

Los objetivos principales son:

  • Posibilitar la cooperación entre usuarios y proveedores de IA.
  • Definir guías de buenas prácticas facilitando las comunicaciones entre autoridades y empresas.
  • Fomentar la claridad en los requisitos normativos sobre IA.
  • Transferir conocimientos técnicos sobre el cumplimiento de la legislación.
  • Fomentar la innovación.

El Real Decreto recoge la creación de un comité asesor de expertos para supervisar y desarrollar las pruebas, asegurando estándares y resultados valiosos.

 

Requisitos de elegibilidad para la participación en el entorno

La participación en el entorno controlado de pruebas está abierta a aquellos proveedores de IA y usuarios residentes en España o que tengan un establecimiento permanente en España.

También podrán participar:

  • Agrupaciones de entidades con representante en territorio español.
  • Personas jurídicas privadas, administraciones públicas y entidades del sector público institucional que utilicen sistemas de IA de alto riesgo, sistemas de propósito general o modelos fundacionales.

El proveedor IA solicitante presentará su solicitud de participación con uno o varios sistemas de inteligencia artificial. Dicha solicitud se realizará de forma electrónica.

El proveedor IA solicitante podrá presentar una o varias propuestas de sistema de inteligencia artificial de alto riesgo, de propósito general, o modelo fundacional.

Este proyecto permitirá crear directrices y guías para implementar el nuevo reglamento. Además, facilitará la elaboración de un informe con buenas prácticas y lecciones aprendidas basadas en pruebas y experimentación práctica.

Esto es con el fin de asegurar la correcta implementación y funcionamiento de los sistemas de IA en la normativa futura sobre Inteligencia Artificial.

 

¿Qué tipo de Inteligencia Artificial se considera de alto riesgo?

Los sistemas de alto riesgo, como los utilizados en educación o selección de personal, deben cumplir con obligaciones específicas para garantizar su seguridad y respetar los valores y garantías de la UE.

Ejemplos de estos sistemas serían aquellos utilizados en la conducción autónoma y en la evaluación de solvencia y calificación crediticia por parte de los bancos.

Además de las novedades ya mencionadas, el pasado mes de octubre se presentó en el Congreso la Proposición de Ley Orgánica de regulación de las simulaciones de imágenes y voces de personas generadas por medio de la inteligencia artificial.

Te contamos, todos los detalles:

Banner Curso de Inteligencia Artificial para Pymes

¿Cómo es la proposición de Ley Orgánica de regulación de las simulaciones de imágenes y voces generadas con la IA?

El pasado 13 de octubre de 2023 se registró en el Congreso una proposición de Ley Orgánica de regulación de las simulaciones de imágenes y voces de personas generadas a través de la Inteligencia Artificial.

El objetivo de esta propuesta es frenar las deepfake o vídeos hiperrealistas.

 

¿Qué es una deepfake?

Una deepfake es una pieza visual, auditiva o audiovisual que simula la realidad y que consiguen generar falsas imágenes y/o voces de personas.

 

Puntos clave de la proposición de la Ley Orgánica de regulación de las simulaciones de imágenes y voces generadas con la IA

La IA tiene efectos muy positivos pero también supone ciertos riesgos presentando ciertos hándicaps a la hora de determinar qué es verdadero y qué es falso.

Cada vez es más difícil determinar qué acciones son realizadas por una persona y qué acciones son meramente simulaciones generadas por terceros usando la Inteligencia Artificial.

El Parlamento Europeo emitió en julio de 2021 un informe (Tackling deepfakes in European policy. European Parliamentary Research Device) en el que se enumeraron las diferentes categorías de riesgos asociadas al uso de la IA.

Entre estas categorías se incluyeron la difamación, intimidación, fraude, manipulación mediática y electoral o robo de identidad, entre otras.

La generación de contenidos audiovisuales a través de Inteligencia Artificial plantea desafíos significativos en términos de privacidad e intimidad.

La posibilidad de crear material que se asemeje o imite a individuos o grupos sin su consentimiento puede dar lugar a violaciones graves de la privacidad.

En este contexto, es evidente que el marco normativo español actual carece de disposiciones específicas que aborden de manera adecuada la autorización para la difusión de alteraciones de imágenes o voces generadas por inteligencia artificial.

Por ello, se considera crucial que las autoridades consideren la implementación de regulaciones claras y específicas para abordar estos problemas emergentes.

Estas regulaciones podrían proporcionar directrices sobre cómo obtener el consentimiento adecuado, así como establecer medidas para prevenir y sancionar el uso indebido de contenidos generados por inteligencia artificial en el ámbito audiovisual.

La protección de la privacidad en un mundo cada vez más digital y tecnológico es esencial, y las leyes deben evolucionar para abordar los desafíos únicos que surgen con la rápida adopción de tecnologías como la Inteligencia Artificial en la creación de contenidos.

 

¿Qué modificaciones incluye la Ley Orgánica sobre Inteligencia Artificial?

La propuesta de Ley Orgánica recoge estas modificaciones:

  • Ley 13/2022, de 7 de julio, General de Comunicación Audiovisual: propone modificaciones para delimitar las infracciones contra personas físicas o jurídicas responsables de la utilización de inteligencia artificial que vulneren las condiciones establecidas en la normativa.
  • Código Penal: sugiere la creación de un artículo para clasificar como injuria la simulación de imágenes o voces de personas generadas por inteligencia artificial sin autorización, con la intención de menoscabar el honor, fama, dignidad o estimación de una persona.
  • Ley 1/2022, de 7 de enero, de Enjuiciamiento Civil: pretende incluir medidas cautelares específicas para facilitar la retirada urgente de imágenes o audios generados con inteligencia artificial sin autorización.
  • Ley Orgánica 3/2018, de 5 de diciembre, de Protección de Datos Personales y garantía de los derechos digitales: se propone la creación de un nuevo artículo para dotar de mayor protección al tratamiento de datos generados por inteligencia artificial.
  • Ley Orgánica 5/1985, de 19 de junio, del Régimen Electoral General: incluye un nuevo delito electoral para sancionar la difusión maliciosa, durante un proceso electoral, de imágenes o audios de personas candidatas alterados o recreados mediante inteligencia artificial.

Además, se plantea la creación del Consejo de Participación Ciudadana para la supervisión y evaluación de la Inteligencia Artificial y también se propone el establecimiento del Consejo Consultivo sobre el uso de la Inteligencia Artificial.

Mientras tanto, hasta que se especifiquen las nuevas normativas, surgen dudas en torno a la IA, como el importante debate generado hace unos meses: ¿ChatGPT estaría cumpliendo con la Ley de Protección de Datos?

 

¿Cumple ChatGPT con la Ley de Protección de Datos?

La principal problemática de ChatGPT es que en su página web:

  • No se recaba el consentimiento para el tratamiento de los datos que se generan durante el uso de ChatGPT.
  • No se informa sobre cuál es la finalidad de la información que se recaba.
  • La información recabada se puede trasladar a terceros.

Además, hace unos meses un problema técnico de ChatGPT expuso los títulos de sesiones de chats de algunos usuarios produciéndose una brecha de datos personales.

Algunos usuarios vieron las conversaciones de otros.

Es importante entender que ChatGPT aprende de la información proporcionada y esto puede conllevar el uso de conversaciones internas y de documentos que sean confidenciales. Se puede revelar información sensible sin querer.

Asimismo, ChatGPT no incluye ninguna medida para verificar la edad de los usuarios.

Por ello, Italia decidió prohibir el uso entre sus ciudadanos hace unos meses.

Aunque ya vuelve a estar operativo el servicio de ChatGPT en Italia, tras haber cumplido una serie de condiciones impuestas por las autoridades pertinentes, otros países como España podrían seguir los mismos pasos.

La Agencia Española de Protección de Datos (AEPD) ha estado realizando actuaciones de investigación para ver si existe un posible incumplimiento de la normativa.

 

¿Qué es y cómo funciona ChatGPT?

ChatGPT es una herramienta de Inteligencia Artificial que se centra en recopilar grandes cantidades de texto para aprender a predecir la probabilidad de una palabra según su contexto.

Las respuestas de ChatGPT ganan precisión cuantos más datos recopile ChatGPT, pero ¿de dónde recoge ChatGPT los datos?

 

¿Cómo obtiene la información ChatGPT?

ChatGPT recoge la información de datos que recopila vía blogs, periódicos, páginas webs o foros.

La cuestión es que los datos recogidos no pasan ningún tipo de filtro y se recogen aunque incluyan datos personales o confidenciales, por lo que se estarían recogiendo de manera ilícita.

Por ello, Italia blindó durante semanas el uso de ChatGPT y ahora la AEPD está investigando los riesgos que podría suponer.

 

¿Qué datos confidenciales recoge ChatGPT?

Cuando usas por primera vez ChatGPT tienes que crear tu propia cuenta. Para ello, es necesario que incluyas:

  • Nombre
  • Email
  • Número de móvil
  • Contraseña

Después, ya puedes comenzar a realizar consultas a esta herramienta de IA. ¿Qué sucede con las consultas que realizas en ChatGPT?

ChatGPT va recopilando las consultas que realizas y esto conlleva una problemática y es que poco a poco va a tener información de cuál es tu comportamiento en Internet y de cuáles son tus necesidades.

¿Qué dice ChatGPT sobre cuál es su política de privacidad? Le preguntamos directamente a esta herramienta de IA y nos ofrece la siguiente información:

«Como modelo de lenguaje de OpenAI, no tengo acceso a información personal sobre los usuarios a menos que se me proporcione directamente en el transcurso de la conversación.

Respeto la privacidad de los usuarios estoy diseñado para cumplir con altos estándares de confidencialidad y seguridad. Mi objetivo principal es proporcionar información útil y responder preguntas de manera efectiva.

Recuerda evitar compartir información personal sensible durante nuestras interacciones.

Para obtener detalles completos sobre la política de privacidad de OpenAI, te recomendaría visitar el sitio web oficial de OpenAI y revisar su política de privacidad actualizada».

Si accedemos a la política de privacidad de ChatGPT se indica que recopila información personal cuando el usuario crea una cuenta para usar el servicio.

En esta información de cuenta se incluyen el nombre, información de contacto o información de la tarjeta de pago.

También recopila contenido cuando el usuario realiza cuestiones en la plataforma.

De manera automática, ChatGPT recibe datos de registro, datos de uso e información del dispositivo. También se usan cookies para administrar los servicios.

¡IMPORTANTE! ChatGPT indica en su política de privacidad de datos que puede proporcionar información personal a terceros sin previo aviso, a menos que lo exija la ley.

Por tanto, puede proporcionar nuestra información profesional a vendedores y proveedores de servicios, por ejemplo.

Entonces, ¿están nuestros datos personales seguros?

Antes de nada, hay que tener en cuenta que un bufete de abogados ubicado en California presentó una demanda colectiva contra OpenAI por recopilar datos personales con el fin de entrenar a ChatGPT.

En la demanda indicaron que ChatGPT estaría usando información sin el consentimiento informado de millones de usuarios, entre los que se incluirían datos de niños y niñas.

 

¿Puede vender ChatGPT nuestros datos a terceros?

Así es, ChatGPT indica que no necesita consentimiento para proporcionar datos personales a terceros.

Podría ser que desde ChatGPT vendieran esos datos a compañías de publicidad y que éstas estudiaran nuestro comportamiento para ofrecernos productos que creemos necesarios.

Para evitar que se filtren datos confidenciales es importante no incluir tarjetas de crédito ni documentación de alto riesgo en esta herramienta de IA.

Si quieres formar a tu plantilla y ofrecerles tips para mantener a salvo los datos personales y empresariales, te recomendamos nuestro Curso de Protección de datos y Garantía de los Derechos Digitales.

 

¿Cumple ChatGPT con la privacidad de datos?

Todo lo mencionado anteriormente nos lleva a pensar que ChatGPT estaría incumpliendo con la privacidad de datos.

Según recoge el Reglamento (UE) 2016/679 ChatGPT no cumpliría con la privacidad de datos porque no sabemos cuál es el uso que se va a hacer de nuestros datos personales e información confidencial.

Además, ChatGPT no incluye en su web un aviso legal y tampoco indica datos fiscales del responsable.

 

¿Es posible desactivar el historial de tus datos en ChatGPT?

Si quieres borrar tu historial de datos en ChatGPT puedes hacerlo en pocos pasos.

Deberás acceder a ChatGPT y entrar con tu usuario. Una vez dentro de tu sesión verás en la parte final de la pantalla, a la izquierda, tu email.

Tendrás que hacer clic en los tres puntitos que aparecen al lado de tu email y podrás visualizar una caja con diferentes opciones. Tendrás que seleccionar ‘Settings’.

Luego, harás clic en ‘Data controls’ y tendrás que quitar la selección a ‘Chat History & Training’.

¡Listo! Tu historial de datos en ChatGPT ya estaría desactivado.

¿Se elimina el historial de forma inmediata? No, el historial se mantendrá durante 30 días.

 

¿Los datos que ofrece ChatGPT son verídicos?

Es importante tener en cuenta otro punto: la información que ofrece ChatGPT no pasa ningún filtro y puede que esté sesgada.

A través de ChatGPT podrían surgir y expandirse fake news y desinformaciones.

Además, ChatGPT no permite tener constancia de dónde procede la información que ofrece por lo que es muy sencillo plagiar el contenido y esto podría afectar a los derechos de propiedad intelectual.

 

¿Cuál es el Reglamento de Inteligencia Artificial de la UE?

Aunque, como comentamos, no existe aún un Reglamento como tal, en Europa y en España ya están trabajando en la Ley de Inteligencia Artificial.

Esta Ley va a tener como fin garantizar que los sistemas de IA usados en la UE sean seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente.

Estaremos muy pendientes de todas las actualizaciones que surja en torno a la futura normativa.

¿Conocías el sandbox regulatorio de la IA? ¿Te preocupan los riegos que supone el uso de herramientas de Inteligencia Artificial, como ChatGPT?

No olvides dejar más abajo tus comentarios, ¡nos encanta leerte!

Banner Cfa Grupo2000
Olga Agea

0 comentarios

Enviar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Suscribete Boletin Noticias Grupo2000
Necesitas Contratar Contrato De Formacion Grupo2000
Formación Catálogo De Cursos Grupo2000

Síguenos en redes

Últimas noticias

Ver Ocupaciones Contrato Formación Alternancia Grupo2000
Formacion Bonificada Para Empresas Grupo2000
Agencia Colocación Publicar Ofertas Grupo2000
Ir al contenido