¡Gran noticia para la regulación de la Inteligencia Artificial! El Parlamento Europeo ha publicado el Reglamento (UE) 2024/1689, que establece normas armonizadas en materia de Inteligencia Artificial.
Esta normativa, conocida como Ley Europea de Inteligencia Artificial, tiene como objetivo mejorar el funcionamiento del mercado interior mediante la creación de un marco jurídico uniforme para el uso de sistemas de IA, garantizando la seguridad y los derechos fundamentales.
Ley de Inteligencia Artificial: todo lo que necesitas saber. Encuentra toda la información más abajo:
¿Qué es la Ley de Inteligencia Artificial?
Esta normativa es la primera regulación general sobre IA a nivel mundial con rango de ley, y tendrá un impacto significativo en el desarrollo económico y social de los próximos años.
La Ley de Inteligencia Artificial tiene dos objetivos principales:
- Garantizar que los sistemas de IA utilizados en la Unión Europea sean seguros y respeten los derechos de los ciudadanos.
- Fomentar la inversión y la innovación en el ámbito de la IA en Europa.
¿A quiénes afectará la Ley de Inteligencia Artificial?
Esta normativa se aplicará tanto a agentes públicos como privados, dentro y fuera de la UE, siempre y cuando la IA se introduzca en el mercado y su uso afecte a los ciudadanos.
Por lo tanto, podrá afectar a:
- Proveedores.
- Implementadores de sistemas de inteligencia artificial de alto riesgo.
Además, los importadores de sistemas de inteligencia artificial deberán garantizar que:
- El proveedor extranjero haya efectuado el procedimiento adecuado de evaluación de la conformidad.
- Los productos tengan el marcado europeo de conformidad (CE).
- Los productos vayan acompañados de la documentación y las instrucciones de uso necesarias.
La Ley de IA va a prohibir ciertas aplicaciones de Inteligencia Artificial que atenten contra los derechos de la ciudadanía, tales como:
- Los sistemas de categorización biométrica basados en características sensibles.
- La captura indiscriminada de imágenes faciales de internet o grabaciones de cámaras de vigilancia para crear bases de datos de reconocimiento facial.
También se van a prohibir los sistemas de puntuación ciudadana y la IA que manipule el comportamiento humano.
El 2 de agosto de 2026 entrará en vigor el Reglamento Europeo de Inteligencia Artificial
El Reglamento Europeo de Inteligencia Artificial se publicó en el DOUE el 12 de julio de 2024 y entrará en vigor el 1 de agosto de 2024, veinte días después de su publicación.
Sin embargo, su aplicación en los Estados miembros se retrasará hasta el 2 de agosto de 2026, siguiendo este calendario:
- 6 meses después de la entrada en vigor: los Estados miembros comenzarán a eliminar progresivamente los sistemas prohibidos.
- 12 meses después: se aplicarán las obligaciones de gobernanza de la inteligencia artificial de uso general.
- 24 meses después: entrarán en vigor todas las normas de la Ley de IA, incluidas las obligaciones relacionadas con los sistemas de alto riesgo definidas.
- 36 meses después: se aplicarán las obligaciones relacionadas con los sistemas de alto riesgo.
Cada Estado miembro deberá designar una o varias autoridades nacionales competentes para supervisar la aplicación y ejecución del Reglamento, así como para realizar actividades de vigilancia del mercado.
No obstante, algunas disposiciones serán aplicables antes del 2 de agosto de 2026.
Por ejemplo, a partir del 2 de agosto de 2025 se aplicarán las prohibiciones de determinadas prácticas relacionadas con la IA, incluyendo el capítulo III (sección 4) o los capítulos V, VII y XII.
¿Qué prácticas prohíbe la Ley de Inteligencia Artificial?
El Reglamento Europeo incluye las prácticas que se van a considerar prohibidas. Las detallamos, a continuación:
- Sistemas de IA utilizados para manipulación, explotación o control social.
- Sistemas de IA diseñados para persuadir a las personas a adoptar comportamientos no deseados o para engañarlas, afectando su capacidad de elegir libremente.
- Sistemas de IA que emplean técnicas subliminales, como estímulos de audio, imagen o vídeo que las personas no pueden percibir.
- Sistemas de IA que utilizan técnicas manipuladoras o engañosas para alterar el comportamiento de una persona o colectivo, reduciendo su capacidad de tomar decisiones informadas.
- Sistemas de IA que explotan vulnerabilidades de personas o colectivos para alterar su comportamiento.
- Sistemas de categorización biométrica basados en datos biométricos, como reconocimiento facial o huellas dactilares, para inferir opiniones políticas, convicciones religiosas, etc.
- Sistemas de IA destinados a evaluar el riesgo de que una persona cometa un delito basándose en la elaboración de perfiles o en la evaluación de rasgos de personalidad. Esta prohibición excluye los sistemas de IA utilizados para apoyar la valoración humana de la implicación de una persona en una actividad delictiva ya basada en hechos objetivos y verificables.
- Sistemas de IA que detectan o infieren emociones en lugares de trabajo y centros educativos, excepto cuando su uso sea por motivos médicos o de seguridad
¿Se pueden usar sistemas de identificación biométrica en tiempo real en espacios de acceso público?
El uso de estos sistemas está permitido únicamente cuando sea estrictamente necesario para:
- La búsqueda selectiva de víctimas concretas de secuestro, trata de seres humanos o explotación sexual.
- La localización de personas desaparecidas.
- La prevención de una amenaza inminente para la vida o la seguridad física de las personas.
- La identificación de una persona sospechosa de haber cometido un delito, con el fin de llevar a cabo una investigación o un enjuiciamiento penal, o para ejecutar una sanción penal.
Clasificación de los niveles de riesgo para los sistemas de Inteligencia Artificial
El Reglamento clasifica los niveles de riesgo de los sistemas de IA de la siguiente manera:
Riesgo inaceptable
Estos son sistemas de IA considerados especialmente peligrosos que vulneran los derechos fundamentales y, por lo tanto, están prohibidos. Por ejemplo, están prohibidos sistema de IA que usen:
- Técnicas subliminales.
- Categorización biométrica de personas.
- Reconocimiento de emociones en lugares de trabajo y en instituciones educativas, salvo por razones médicas o de seguridad.
Alto riesgo
Los sistemas de IA de alto riesgo deben someterse a una evaluación de conformidad antes de su comercialización. Esto incluye productos como juguetes, dispositivos médicos o máquinas, entre otros. Los requisitos son:
- Verificación de cumplimiento de requisitos obligatorios.
- Evaluación positiva para declarar la conformidad del sistema con el reglamento y obtener el marcado CE de conformidad.
- Registro público de sistemas de alto riesgo (con acceso restringido en casos de uso por poderes públicos para fines policiales o migratorios).
- Aplicación de sistemas de gestión de la calidad y de riesgos, incluso post-comercialización.
Riesgo bajo
La mayoría de los sistemas de IA pertenecen a esta categoría y están sujetos a un régimen más sencillo de obligaciones de información y respeto a los derechos de propiedad intelectual y similares.
Sin embargo, se imponen obligaciones específicas de transparencia en casos donde exista un claro peligro de confusión o manipulación del usuario, como:
- Uso de robots conversacionales.
- Uso de técnicas de ultra suplantación que podrían inducir a error sobre la autenticidad o veracidad de los contenidos generados por IA.
Riesgos sistémicos
La normativa también considera los riesgos sistémicos derivados del uso de grandes modelos generativos de inteligencia artificial, como ChatGPT 4 o GEMINI, que pueden utilizarse para diversas tareas y pueden tener un impacto significativo.
Las obligaciones adicionales para estos modelos incluyen:
- Evaluación y mitigación del riesgo.
- Comunicación en caso de incidentes.
- Protección de la ciberseguridad.
- Adopción de códigos de buenas prácticas para demostrar el cumplimiento de estas obligaciones.
Estos modelos pueden causar accidentes graves o ser utilizados indebidamente para ciberataques de amplio alcance, lo que justifica la imposición de estas medidas de control y seguridad adicionales.
¿Qué se consideran sistemas de alto riesgo en IA?
La normativa define un sistema de IA como de alto riesgo cuando cumple con dos condiciones:
- El sistema de IA está destinado a ser usado como componente de seguridad de un producto que entra en el ámbito de aplicación de los actos legislativos de armonización de la Unión enumerados en el Reglamento, o el propio sistema de IA es uno de dichos productos.
- El producto del que el sistema de IA es componente de seguridad, o el propio sistema de IA como producto, debe someterse a una evaluación de conformidad de terceros para su introducción en el mercado o puesta en servicio, de acuerdo con los actos legislativos de armonización de la Unión enumerados en la normativa.
Ejemplos de sistemas de IA de alto riesgo
- Sistemas de gestión de personal y acceso al autoempleo: Incluyen sistemas utilizados para la contratación o selección de personal, la publicación de anuncios y la filtración de solicitudes. Estas medidas buscan evitar la discriminación contra mujeres, personas con discapacidad o determinados grupos de edad.
- Sistemas de control del rendimiento y comportamiento de empleados: Estos sistemas pueden socavar los derechos fundamentales a la protección de datos personales y a la intimidad de los empleados.
- Sistemas destinados al reconocimiento de emociones: Están expresamente clasificados como de alto riesgo debido a su potencial impacto en los derechos fundamentales.
¡Importante! La regulación europea no sólo establece mecanismos de control y regulación, sino también medidas de fomento para incentivar un desarrollo sostenible de las tecnologías en términos sociales. Estas medidas incluyen:
- Espacios controlados de pruebas (sandboxes): Proporcionan un entorno regulado para probar y desarrollar nuevas tecnologías de IA.
- Apoyo a las pymes: Fomentan el desarrollo de sistemas de IA por pequeñas y medianas empresas, facilitando su acceso a recursos y mercados.
Más abajo, tienes más detalles de los espacios controlados de pruebas.
¿Cuáles son las sanciones por incumplir la Ley de IA?
El Reglamento fija estos umbrales:
- Hasta 35 millones de euros o el 7 % del volumen de negocios anual total a escala mundial del ejercicio financiero anterior, si este importe fuera superior, por las infracciones por incumplimiento o prácticas prohibidas en relación con los requisitos sobre los datos.
- Hasta 15 millones de euros o el 3 % del volumen de negocios anual total a escala mundial del ejercicio financiero anterior por el incumplimiento de cualquier otro requisito u obligación del Reglamento, incluidas las infracciones de las normas sobre los modelos de inteligencia artificial de uso general.
- Hasta 7,5 millones de euros o el 1,5 % del volumen de negocios total anual a escala mundial del ejercicio anterior por el suministro de información incorrecta, incompleta o engañosa a los organismos notificados y a las autoridades nacionales competentes en respuesta a una solicitud.
¿Cómo afectará la Ley de Inteligencia Artificial a las empresas españolas?
El pasado 7 de noviembre de 2023 se alcanzó otro hito clave: el Consejo de Ministros aprobó el Real Decreto 817/2023, que establece un entorno controlado de pruebas, conocido como sandbox, con el fin de complementar la Ley de Inteligencia Artificial.
Este entorno controlado permitirá a las empresas españolas probar y desarrollar sistemas de IA en un marco regulado, facilitando la innovación mientras se aseguran de cumplir con las normativas de seguridad y derechos fundamentales.
El entorno controlado de pruebas de la Ley de IA ya está en marcha
En plena expansión de la Inteligencia Artificial, el Gobierno de España, en colaboración con la Comisión Europea, está liderando el primer entorno controlado de pruebas con el fin de evaluar la efectividad de los requisitos para sistemas de Inteligencia Artificial de alto riesgo.
¿En qué consiste el sandbox regulatorio de la Ley de Inteligencia Artificial?
Este sandbox tiene como fin establecer un marco regulatorio adecuado que garantice la confianza, la seguridad y la protección de la privacidad de datos ante el uso de herramientas basadas en IA.
Consiste en un espacio controlado en el que las empresas y personas participantes pueden experimentar con soluciones de IA bajo la supervisión de las autoridades competentes.
Así se van a poder validar las soluciones de IA que cumplan con los requisitos exigidos.
¿Cuáles son los objetivos del entorno de pruebas para la IA de alto riesgo?
Los objetivos principales son:
- Posibilitar la cooperación entre usuarios y proveedores de IA.
- Definir guías de buenas prácticas facilitando las comunicaciones entre autoridades y empresas.
- Fomentar la claridad en los requisitos normativos sobre IA.
- Transferir conocimientos técnicos sobre el cumplimiento de la legislación.
- Fomentar la innovación.
El Real Decreto recoge la creación de un comité asesor de expertos para supervisar y desarrollar las pruebas, asegurando estándares y resultados valiosos.
Requisitos de elegibilidad para la participación en el entorno
La participación en el entorno controlado de pruebas está abierta a aquellos proveedores de IA y usuarios residentes en España o que tengan un establecimiento permanente en España.
También pueden participar:
- Agrupaciones de entidades con representante en territorio español.
- Personas jurídicas privadas, administraciones públicas y entidades del sector público institucional que utilicen sistemas de IA de alto riesgo, sistemas de propósito general o modelos fundacionales.
El proveedor IA solicitante debe presentar su solicitud de participación con uno o varios sistemas de inteligencia artificial. Dicha solicitud se realiza de forma electrónica.
El proveedor IA solicitante puede presentar una o varias propuestas de sistema de inteligencia artificial de alto riesgo, de propósito general, o modelo fundacional.
Este proyecto va a permitir la creación de directrices y guías para implementar el nuevo reglamento. Además, facilitará la elaboración de un informe con buenas prácticas y lecciones aprendidas basadas en pruebas y experimentación práctica.
A parte de las novedades ya mencionadas, en octubre de 2023 también se presentó en el Congreso la Proposición de Ley Orgánica de regulación de las simulaciones de imágenes y voces de personas generadas por medio de la inteligencia artificial.
Te contamos, todos los detalles:
¿Cómo es la proposición de Ley Orgánica de regulación de las simulaciones de imágenes y voces generadas con la IA?
El 13 de octubre de 2023 se registró en el Congreso una proposición de Ley Orgánica de regulación de las simulaciones de imágenes y voces de personas generadas a través de la Inteligencia Artificial.
El objetivo de esta propuesta es frenar las deepfake o vídeos hiperrealistas.
¿Qué es una deepfake?
Una deepfake es una pieza visual, auditiva o audiovisual que simula la realidad y que consiguen generar falsas imágenes y/o voces de personas.
Puntos clave de la proposición de la Ley Orgánica de regulación de las simulaciones de imágenes y voces generadas con la IA
La IA tiene efectos muy positivos, pero también supone ciertos riesgos presentando hándicaps a la hora de determinar qué es verdadero y qué es falso.
Cada vez es más difícil determinar qué acciones son realizadas por una persona y qué acciones son meramente simulaciones generadas por terceros usando la Inteligencia Artificial.
El Parlamento Europeo emitió en julio de 2021 un informe (Tackling deepfakes in European policy. European Parliamentary Research Device) en el que se enumeraron las diferentes categorías de riesgos asociadas al uso de la IA.
Entre estas categorías se incluyeron la difamación, intimidación, fraude, manipulación mediática y electoral o robo de identidad, entre otras.
La generación de contenidos audiovisuales a través de Inteligencia Artificial plantea desafíos significativos en términos de privacidad e intimidad.
La posibilidad de crear material que se asemeje o imite a individuos o grupos sin su consentimiento puede dar lugar a violaciones graves de la privacidad.
En este contexto, es evidente que el marco normativo español carece de disposiciones específicas que aborden de manera adecuada la autorización para la difusión de alteraciones de imágenes o voces generadas por inteligencia artificial.
Por ello, se considera crucial que las autoridades consideren la implementación de regulaciones claras y específicas para abordar estos problemas emergentes.
Estas regulaciones podrían proporcionar directrices sobre cómo obtener el consentimiento adecuado, así como establecer medidas para prevenir y sancionar el uso indebido de contenidos generados por inteligencia artificial en el ámbito audiovisual.
La protección de la privacidad en un mundo cada vez más digital y tecnológico es esencial, y las leyes deben evolucionar para abordar los desafíos únicos que surgen con la rápida adopción de tecnologías como la Inteligencia Artificial en la creación de contenidos.
¿Qué modificaciones incluye la Ley Orgánica sobre Inteligencia Artificial?
La propuesta de Ley Orgánica recoge estas modificaciones:
- Ley 13/2022, de 7 de julio, General de Comunicación Audiovisual: propone modificaciones para delimitar las infracciones contra personas físicas o jurídicas responsables de la utilización de inteligencia artificial que vulneren las condiciones establecidas en la normativa.
- Código Penal: sugiere la creación de un artículo para clasificar como injuria la simulación de imágenes o voces de personas generadas por inteligencia artificial sin autorización, con la intención de menoscabar el honor, fama, dignidad o estimación de una persona.
- Ley 1/2022, de 7 de enero, de Enjuiciamiento Civil: pretende incluir medidas cautelares específicas para facilitar la retirada urgente de imágenes o audios generados con inteligencia artificial sin autorización.
- Ley Orgánica 3/2018, de 5 de diciembre, de Protección de Datos Personales y garantía de los derechos digitales: se propone la creación de un nuevo artículo para dotar de mayor protección al tratamiento de datos generados por inteligencia artificial.
- Ley Orgánica 5/1985, de 19 de junio, del Régimen Electoral General: incluye un nuevo delito electoral para sancionar la difusión maliciosa, durante un proceso electoral, de imágenes o audios de personas candidatas alterados o recreados mediante inteligencia artificial.
Además, se plantea la creación del Consejo de Participación Ciudadana para la supervisión y evaluación de la Inteligencia Artificial y también se propone el establecimiento del Consejo Consultivo sobre el uso de la Inteligencia Artificial.
Antes de finalizar, nos gustaría aclarar una duda que ha generado bastante incertidumbre en los últimos meses: ¿ChatGPT estaría cumpliendo con la Ley de Protección de Datos?
¿Cumple ChatGPT con la Ley de Protección de Datos?
La principal problemática de ChatGPT es que en su página web:
- No se recaba el consentimiento para el tratamiento de los datos que se generan durante el uso de ChatGPT.
- No se informa sobre cuál es la finalidad de la información que se recaba.
- La información recabada se puede trasladar a terceros.
Además, hace unos meses un problema técnico de ChatGPT expuso los títulos de sesiones de chats de algunos usuarios produciéndose una brecha de datos personales.
De hecho, muchos usuarios vieron las conversaciones de otros.
Es importante entender que ChatGPT aprende de la información proporcionada y esto puede conllevar el uso de conversaciones internas y de documentos que sean confidenciales. Se puede revelar información sensible sin querer.
Asimismo, ChatGPT no incluye ninguna medida para verificar la edad de los usuarios.
Por ello, Italia decidió prohibir el uso entre sus ciudadanos hace unos meses.
Aunque ya vuelve a estar operativo el servicio de ChatGPT en Italia, tras haber cumplido una serie de condiciones impuestas por las autoridades pertinentes, otros países como España habrían considerado tomar medidas similares.
La Agencia Española de Protección de Datos (AEPD) ha estado investigando posibles incumplimiento de la normativa de protección de datos en relación con ChatGPT.
¿Qué es y cómo funciona ChatGPT?
ChatGPT es una herramienta de Inteligencia Artificial que se centra en recopilar grandes cantidades de texto para aprender a predecir la probabilidad de una palabra según su contexto.
Las respuestas de ChatGPT ganan precisión cuantos más datos recopile ChatGPT, pero ¿de dónde recoge ChatGPT los datos?
¿Cómo obtiene la información ChatGPT?
ChatGPT recoge la información de datos que recopila vía blogs, periódicos, páginas webs o foros.
La cuestión es que los datos recogidos no pasan ningún tipo de filtro y se recogen aunque incluyan datos personales o confidenciales, por lo que se estarían recogiendo de manera ilícita.
Por ello, Italia blindó durante semanas el uso de ChatGPT y la AEPD ha estado investigando los riesgos que podría suponer.
¿Qué datos confidenciales recoge ChatGPT?
Cuando usas por primera vez ChatGPT tienes que crear tu propia cuenta. Para ello, es necesario que incluyas:
- Nombre
- Número de móvil
- Contraseña
Después, ya puedes comenzar a realizar consultas a esta herramienta de IA. ¿Qué sucede con las consultas que realizas en ChatGPT?
ChatGPT va recopilando las consultas que realizas y esto conlleva una problemática y es que poco a poco va a tener información de cuál es tu comportamiento en Internet y de cuáles son tus necesidades.
¿Qué dice ChatGPT sobre cuál es su política de privacidad? Le preguntamos directamente a esta herramienta de IA y nos ofrece la siguiente información:
«Como modelo de lenguaje de OpenAI, no tengo acceso a información personal sobre los usuarios a menos que se me proporcione directamente en el transcurso de la conversación.
Respeto la privacidad de los usuarios y estoy diseñado para cumplir con altos estándares de confidencialidad y seguridad. Mi objetivo principal es proporcionar información útil y responder preguntas de manera efectiva.
Recuerda evitar compartir información personal sensible durante nuestras interacciones.
Para obtener detalles completos sobre la política de privacidad de OpenAI, te recomendaría visitar el sitio web oficial de OpenAI y revisar su política de privacidad actualizada».
Si accedemos a la política de privacidad de ChatGPT se indica que recopila información personal cuando el usuario crea una cuenta para usar el servicio.
En esta información de cuenta se incluyen el nombre, información de contacto o información de la tarjeta de pago.
También recopila contenido cuando el usuario realiza cuestiones en la plataforma.
De manera automática, ChatGPT recibe datos de registro, datos de uso e información del dispositivo. También se usan cookies para administrar los servicios.
¡IMPORTANTE! ChatGPT indica en su política de privacidad de datos que puede proporcionar información personal a terceros sin previo aviso, a menos que lo exija la ley.
Por tanto, puede proporcionar nuestra información profesional a vendedores y proveedores de servicios, por ejemplo.
Entonces, ¿están nuestros datos personales seguros?
Antes de nada, hay que tener en cuenta que un bufete de abogados ubicado en California presentó una demanda colectiva contra OpenAI por recopilar datos personales con el fin de entrenar a ChatGPT.
En la demanda indicaron que ChatGPT estaría usando información sin el consentimiento informado de millones de usuarios, entre los que se incluirían datos de niños y niñas.
¿Puede vender ChatGPT nuestros datos a terceros?
Así es, ChatGPT indica que no necesita consentimiento para proporcionar datos personales a terceros.
Podría ser que desde ChatGPT vendieran esos datos a compañías de publicidad y que éstas estudiaran nuestro comportamiento para ofrecernos productos que creemos necesarios.
Para evitar que se filtren datos confidenciales es importante no incluir tarjetas de crédito ni documentación de alto riesgo en esta herramienta de IA.
Si quieres formar a tu plantilla y ofrecerles tips para mantener a salvo los datos personales y empresariales, te recomendamos nuestro Curso de Protección de datos y Garantía de los Derechos Digitales.
¿Cumple ChatGPT con la privacidad de datos?
Todo lo mencionado anteriormente nos lleva a pensar que ChatGPT estaría incumpliendo con la privacidad de datos.
Según recoge el Reglamento (UE) 2016/679 ChatGPT no cumpliría con la privacidad de datos porque no sabemos cuál es el uso que se va a hacer de nuestros datos personales e información confidencial.
Además, ChatGPT no incluye en su web un aviso legal y tampoco indica datos fiscales del responsable.
¿Es posible desactivar el historial de tus datos en ChatGPT?
Si quieres borrar tu historial de datos en ChatGPT puedes hacerlo en pocos pasos.
Deberás acceder a ChatGPT y entrar con tu usuario. Una vez dentro de tu sesión verás en la parte final de la pantalla, a la izquierda, tu email.
Tendrás que hacer clic en los tres puntitos que aparecen al lado de tu email y podrás visualizar una caja con diferentes opciones. Tendrás que seleccionar ‘Settings’.
Luego, harás clic en ‘Data controls’ y tendrás que quitar la selección a ‘Chat History & Training’.
¡Listo! Tu historial de datos en ChatGPT ya estaría desactivado.
¿Se elimina el historial de forma inmediata? No, el historial se mantendrá durante 30 días.
¿Los datos que ofrece ChatGPT son verídicos?
Es importante tener en cuenta otro punto: la información que ofrece ChatGPT no pasa ningún filtro y puede que esté sesgada.
A través de ChatGPT podrían surgir y expandirse fake news y desinformaciones.
Además, ChatGPT no permite tener constancia de dónde procede la información que ofrece por lo que es muy sencillo plagiar el contenido y esto podría afectar a los derechos de propiedad intelectual.
Tras haberse presentado el Reglamento Europeo de IA se podrían imponer limitaciones a ciertos servicios como ChatGPT.
Estaremos muy pendientes de todas las actualizaciones que surja en torno a la normativa.
¿Conocías el sandbox regulatorio de la IA? ¿Te preocupan los riegos que supone el uso de herramientas de Inteligencia Artificial, como ChatGPT?
No olvides dejar más abajo tus comentarios, ¡nos encanta leerte!
Grupo2000, centro especializado en contratos de formación y formación bonificada para empresas
Grupo2000 somos un centro acreditado por el SEPE para dar formación bonificada con más de 24 años de experiencia en el sector.
Disponemos de un amplio Catálogo de cursos en el que podrás encontrar el que mejor se adapte a las necesidades de tu plantilla.
En concreto, somos conscientes de la importancia de formarse en ciberseguridad y protección de datos. Por este motivo, disponemos de acciones formativas específicas para ayudar a las empresas a capacitar a su personal.
Nuestros cursos pueden ser bonificados a través de los créditos de formación de la empresa. Nos encargamos de realizar todas las gestiones relacionadas con FUNDAE.
Además, en Grupo2000 estamos especializados en contratos de formación en alternancia.
Si estás interesado/a en ampliar tu plantilla el contrato de formación es una opción muy útil. Te permitirá contratar hasta 2 años sin costes en los Seguros Sociales.
Para más información, ¡contáctanos! Puedes chatear online con nuestro equipo o llamarnos al 958 80 67 60.
0 comentarios