
El pasado 29 de octubre de 2025, el Centre Pompidou Málaga se convirtió en punto de encuentro para directivos, expertos legales y profesionales del ámbito tecnológico durante el Encuentro de El Español – OPPLUS: La regulación de la IA en empresas, donde se trató el marco regulatorio de la Inteligencia Artificial (IA) y su impacto en las empresas.
Este encuentro ha resultado ser una cita imprescindible para entender el papel que juega dicho marco en la estrategia y la gobernanza de las empresas europeas.
Un espacio de diálogo sobre el marco legal de la IA
El encuentro comenzó con la bienvenida de Ángel Recio, delegado de El Español en Málaga, y la inauguración a cargo de Pablo Benavides, CEO de OPPLUS, junto con Patricia Navarro, delegada del Gobierno de la Junta de Andalucía.
El momento central fue la Mesa Redonda “Gestionando la IA con Reglas”, que reunió a Francisco López (Director del área Legal de OPPLUS), Rocío Ramírez (Senior Technology Product Manager en Wolters Kluwer Legal Software) y Jorge del Valle, socio de Certus y experto en derecho tecnológico y gobernanza digital.
La intervención de nuestro socio Jorge del Valle aportó una visión práctica y estratégica sobre cómo las empresas deben prepararse para el nuevo marco legal de la IA impulsado por la Unión Europea.
El encuentro concluyó con un desayuno networking, que permitió a los asistentes compartir experiencias, retos y estrategias frente al nuevo entorno normativo.
La cita dejó patente que la colaboración entre el sector público, las empresas y los expertos en derecho tecnológico será clave para construir una IA ética, segura y sostenible.
La Ley de Inteligencia Artificial: plazos y desafíos empresariales
Durante su exposición, Jorge del Valle recordó que la Ley de Inteligencia Artificial de la UE (RIA) será plenamente aplicable a partir del 2 de agosto de 2026, pero con plazos anticipados que obligan a las empresas a actuar desde ya:
- 2 de febrero de 2025: entrada en vigor de los capítulos relativos a disposiciones generales y sistemas de IA prohibidos.
- 2 de agosto de 2025: aplicación de secciones sobre autoridades notificantes, IA de uso general, gobernanza, sanciones y confidencialidad.
- 2 de agosto de 2027: sistemas de IA de alto riesgo.
Según nuestro socio, este calendario marca un punto de inflexión: el reto no es solo cumplir con la norma, sino aprender a controlar la inteligencia artificial con responsabilidad y transparencia.
Jorge del Valle enfatizó que las organizaciones deben adelantarse a los requerimientos legales si quieren mantener la confianza de clientes, empleados y autoridades regulatorias. El objetivo no es limitar la innovación, sino hacerla sostenible y ética.
Riesgos empresariales en la adopción de la IA generativa
A lo largo de su ponencia, Jorge del Valle detalló los principales riesgos asociados a la IA generativa según el área funcional de las compañías, lo que demostró que la transformación digital también exige una transformación de la gestión de riesgos en los ámbitos siguientes:
- Dirección y estrategia: dependencia tecnológica excesiva, decisiones basadas en datos sesgados y riesgo reputacional por falta de transparencia.
- Jurídico y cumplimiento: conflictos con el RGPD y la Ley de IA; dificultad para explicar decisiones automatizadas ante litigios y riesgos de infracción de propiedad intelectual.
- Tecnologías de la información: vulnerabilidades en herramientas de terceros (el 22 % de las pymes ha sufrido ciberataques mediante plataformas externas) y falta de trazabilidad en el uso de modelos de IA.
- Recursos Humanos: sesgos algorítmicos en selección y evaluación; solo el 26 % de los empleados ha recibido formación para usar IA de forma responsable.
- Comercial y marketing: uso indebido de datos de clientes, creación de deepfakes o desinformación, así como exposición de información sensible en plataformas generativas.
Estos puntos sirvieron para evidenciar que la gobernanza de la inteligencia artificial es hoy un elemento de competitividad. La adopción de IA debe acompañarse de políticas internas, controles éticos y protocolos de revisión humana que reduzcan el impacto de los sesgos y garanticen la trazabilidad.
Medidas esenciales para una IA responsable
En la parte final de su intervención, Jorge del Valle propuso un plan de gestión de riesgos, con el apoyo de nuestro equipo en Certus, con el objetivo de ofrecer a las empresas una hoja de ruta para implantar una IA responsable:
- Diagnóstico y evaluación de riesgos: inventariar los sistemas de IA, analizar los datos que procesan y verificar los de alto riesgo antes de su uso.
- Gobernanza y responsabilidad: crear un comité de IA conectado con las áreas de protección de datos y ciberseguridad.
- Formación continua: fomentar la cultura de la IA ética mediante programas formativos y supervisión humana significativa.
- Transparencia y avisos comprensibles: informar de forma clara cuando una decisión o interacción involucra un sistema de IA.
- Selección rigurosa de herramientas: elegir proveedores que garanticen seguridad, confidencialidad y cumplimiento normativo.
- Seguridad técnica y auditorías: revisar periódicamente algoritmos, fuentes de datos y licencias, documentando cada proceso.
- Cobertura de riesgos: contratar pólizas cibernéticas adecuadas que faciliten tanto la protección como la respuesta ante incidentes.
Nuestro experto recordó que la gestión de la IA debe integrarse en la estrategia global de compliance y sostenibilidad empresarial, no tratarse como un proyecto aislado o experimental. La IA generativa no puede entenderse sin responsabilidad generativa. Innovar es compatible con regularse bien.
Hacia una cultura empresarial de responsabilidad digital
El mensaje final de la sesión fue claro: la regulación de la IA no busca frenar la innovación, sino garantizar que su impacto sea positivo y fiable.
Para Jorge del Valle, el verdadero desafío está en transformar la cultura corporativa mediante la adopción de modelos de gobernanza tecnológica que inspiren confianza tanto en el mercado como en la sociedad.

 
				 
				 
				