¡Activa las notificaciones laborales por email!

Especialista en Seguridad + IA Responsable

Gattaca

Madrid

Presencial

EUR 50.000 - 80.000

Jornada completa

Hace 26 días

Mejora tus posibilidades de llegar a la entrevista

Elabora un currículum adaptado a la vacante para tener más posibilidades de triunfar.

Descripción de la vacante

Una multinacional busca un Especialista en Seguridad + IA Responsable para su equipo en Madrid. Este rol híbrido combina tareas técnicas y de gestión, enfocándose en la protección de datos y el uso responsable de la inteligencia artificial. Se requiere experiencia sólida en seguridad y un entendimiento profundo de la regulación vigente.

Formación

  • 6 años de experiencia en Seguridad y Privacidad.
  • Conocimiento del entorno regulatorio de Seguridad de la Información.
  • Experiencia en entornos empresariales complejos.

Responsabilidades

  • Definir e implantar la estrategia de Seguridad y Privacidad.
  • Gestionar proyectos de IA Responsable.
  • Identificar y analizar riesgos de Seguridad y Privacidad.

Conocimientos

Seguridad y Privacidad
Gestión de Proyectos
Análisis de Riesgos
Colaboración
Orientación a Resultados

Educación

Experiencia en Seguridad y Privacidad
Conocimiento de ISO27001
Certificaciones en Ciberseguridad

Herramientas

Microsoft Purview
bigID

Descripción del empleo

Especialista en Seguridad + IA Responsable

Ubicación : Las Tablas, Madrid, modelo híbrido, 3 días a la semana en la oficina

Para un importante cliente español (multinacional) y como ubicación en la zona de Las Tablas, buscamos cubrir una posición de Especialista en Seguridad + IA Responsable

Dentro de la Dirección Corporativa de Seguridad, nos encontramos en la búsqueda de un / a Especialista en Seguridad + IA Responsable para formar parte de nuestro equipo del área de Privacidad y Protección del Dato y la IA que nos ayude a definir las medidas y controles necesarios para garantizar la protección de los datos y el uso responsable de nuevas tecnologías como la IA, así como definir las buenas prácticas y políticas necesarias para cumplir con la regulación vigente en materia de Seguridad, Privacidad y Uso Responsable de la IA.

Trabajarás en un entorno global y multidisciplinar, con continuo contacto con las distintas geografías y áreas globales para garantizar el cumplimiento de la entidad en relación a la legislación y el marco regulatorio vigente atendiendo a los criterios y principios marcados por la Dirección Corporativa de Seguridad.

Qué funciones realizarás?

Se trata de un rol híbrido (50% técnico de riesgos de seguridad, 50% gestión de proyectos de IA Responsable), en un entorno muy dinámico :

  • Colaborarás en la definición e implantación de la estrategia de Seguridad y Privacidad, así como en garantizar el uso Responsable de la Inteligencia Artificial.
  • Colaborarás activamente en los proyectos relacionados con la adecuación a regulación en materia de IA, haciendo seguimiento del cumplimiento de las obligaciones en los diferentes países.
  • Ajustarás y actualizarás dinámicamente la gobernanza y uso responsable de la IA mediante la implantación de controles y guardarraíles necesarios.
  • Identificarás y analizarás los riesgos de Seguridad y Privacidad derivados de la legislación y normativa en materia de Inteligencia Artificial.
  • Explorarás el uso de herramientas y soluciones que permitan monitorizar el uso responsable de la IA y / o aumentar el control del uso de los datos por sistemas de IA.
  • Evaluarás y mitigarás los riesgos de la IA, como el sesgo, discriminación, explicabilidad, etc. en algoritmos y modelos de IA, incluidas las soluciones basadas en modelos analíticos avanzados o GenAI, a lo largo del ciclo de vida de un producto de datos.
  • Gestionarás proyectos que requieren la aplicación de la IA. También fomentarás y acelerarás el uso de la IA en los procesos internos del área.
  • Propondrás, elaborarás y revisarás normas y procedimientos que estén alineados con la Estrategia de Seguridad, la Estrategia de Dato y de Tecnología y que permitan el cumplimiento de la legislación y normativa en materia de Privacidad, Protección de Datos e Inteligencia Artificial.
  • Analizarás, participarás y promoverás la incorporación de requisitos y controles para un uso responsable de la IA en todo proyecto dentro de tu ámbito de responsabilidad.
  • Valorarás los riesgos desde la perspectiva de IA Responsable en la adquisición de soluciones innovadoras en las que incorporar el uso de Sistemas de IA.
  • Determinarás la postura de Seguridad y Privacidad ante los riesgos de la IA, proponiendo estrategias de mitigación su reducción y priorización.
  • Colaborarás con el Centro de IA, las áreas de Tecnología, Operaciones, Innovación para para asegurar que los requisitos y controles de Seguridad y Privacidad se diseñan, implantan, actúan con efectividad y para impulsar la IA responsable de forma coherente en toda la organización.
  • Propondrás, implantarás, mejorarás y coordinarás la medición de los indicadores de Seguridad, Privacidad y Uso Responsable sobre el ámbito de Inteligencia Artificial con las distintas entidades y países.

Qué conocimientos y experiencia necesitamos que tengas?

  • 6 años de experiencia en Seguridad y Privacidad, frameworks, políticas, estándares, regulaciones y prácticas / disciplinas de riesgo tecnológico.
  • Conocimiento del entorno regulatorio relacionado con Seguridad de la Información (por ejemplo. ISO27001) y Protección de Datos, con capacidad para articular los principios de uso Responsable de IA.
  • Gobernanza de tecnologías digitales emergentes para un uso responsable de la IA.
  • Conocimientos sobre el Reglamento Europeo de IA, así como de otras regulaciones similares y buenas prácticas sobre el uso ético y responsable de la IA.
  • Mantenerse al día de las últimas tendencias y avances tecnológicos en IA / GenAI.
  • Experiencia en entornos empresariales de alta transaccionalidad, grande / complejo / organización internacional.
  • Capacidades de trabajo en equipo, análisis / síntesis, planificación, orientación a resultados.

Deseable (al menos tener experiencia en 2 de estos entornos) :

  • Conocimientos de herramientas de Data Security Posture Management (DSPM). (Microsoft Purview / bigID)
  • Experiencia en colaboración en proyectos de plataforma tecnológicas de ML / IA en arquitecturas cloud y metodología agile.
  • Se valorarán conocimientos, experiencia y certificaciones específicas en materia de seguridad de la información y ciberseguridad (CISM, CISSP, CCSP, CGEIT, CDPSE, CISA, CDPP.....)
  • Más de 3 años de experiencia en securización de arquitecturas con tecnologías de IA / ML. Al menos 3 años de experiencia en seguridad en MLops
  • Experiencia de al menos 2 años en despliegues de proyectos IA en entornos cloud (Azure, Amazon o Google).
  • Conocimientos sobre configuración segura de plataformas unificadas de IA de Microsoft (Azure OpenAI), AWS (Bedrock) y Google (Vertex AI).
Crear una alerta de empleo para esta búsqueda
Consigue la evaluación confidencial y gratuita de tu currículum.
o arrastra un archivo en formato PDF, DOC, DOCX, ODT o PAGES de hasta 5 MB.