¡Activa las notificaciones laborales por email!

Technical Sales Expert Engineer mfd

TRW

Madrid

Presencial

EUR 40.000 - 55.000

Jornada completa

Hace 30+ días

Mejora tus posibilidades de llegar a la entrevista

Elabora un currículum adaptado a la vacante para tener más posibilidades de triunfar.

Descripción de la vacante

Una empresa innovadora busca un Ingeniero de Colección de Datos para construir sistemas escalables y de alta calidad. El candidato ideal tendrá experiencia en desarrollo de crawlers y habilidades en AWS, Git y Scrapy. Se valorará la capacidad de trabajar en equipo y la comunicación efectiva en inglés.

Formación

  • Experiencia en infraestructura en la nube como AWS.
  • Conocimiento en flujos de trabajo Git y pipelines CI/CD.
  • Experiencia en desarrollo de crawlers escalables en Python.

Responsabilidades

  • Diseñar y construir crawlers web robustos.
  • Desarrollar y mantener spiders para extracción de datos a gran escala.
  • Garantizar la calidad del código y la coherencia.

Conocimientos

Comunicación
Resolución de problemas
Colaboración

Herramientas

AWS
Scrapy
Git
Grafana
Sentry

Descripción del empleo

Crear una alerta de empleo para esta búsqueda
  • Nueva oferta
  • Oferta promocionada
Descripción del trabajo

En el actual panorama minorista, caracterizado por fluctuaciones económicas y desafíos en la cadena de suministro, los consumidores son más exigentes, comparando precios y buscando productos atractivos.

Centric Pricing ayuda a minoristas y marcas a entender profundamente el panorama competitivo tras el lanzamiento de productos.

Al aprovechar insights impulsados por IA, las empresas pueden tomar decisiones informadas rápidamente, alineando desarrollo de productos, sourcing, costos y estrategias de precios con las demandas del mercado en tiempo real. La integración de Centric Pricing en la plataforma de Centric Software ofrece una solución integral que combina inteligencia y capacidades de ejecución.

Esto permite a marcas y minoristas optimizar la disponibilidad de productos, reducir el tiempo al mercado y mejorar la calidad del producto, mejorando la experiencia del consumidor y aumentando la rentabilidad. Somos un socio innovador clave para marcas icónicas y emergentes en todo el mundo.

Nuestra plataforma puede analizar información de más de 1,000 minoristas, procesando datos de más de 600,000 marcas y rastreando millones de productos. Como Ingeniero de Colección de Datos, serás fundamental en construir sistemas escalables y de alta calidad para la recopilación de datos, colaborando en equipos para impulsar la innovación y mantener la robustez de nuestra canalización de datos. Tus responsabilidades incluirán:

  1. Diseñar y construir crawlers web robustos
  2. Desarrollar y mantener spiders para extracción de datos a gran escala usando Scrapy
  3. Aplicar técnicas avanzadas para evitar mecanismos anti-bots, incluyendo proxies rotativos, estrategias de resolución de captcha y fingerprinting
  4. Mejorar y mantener infraestructura
  5. Construir pipelines CI/CD escalables para pruebas automatizadas, despliegue y monitoreo de spiders
  6. Garantizar la calidad del código y la coherencia
  7. Implementar revisiones de código y mentoría a ingenieros junior
  8. Monitorear, mantener y garantizar la fiabilidad
  9. Integrar sistemas de monitoreo para alertas en tiempo real y chequeos de salud
  10. Auditar periódicamente los spiders para manejar cambios estructurales y mejorar la fiabilidad
  11. Solucionar fallos y optimizar recursos para eficiencia en crawling
  12. Garantizar la integridad y precisión de los datos
  13. Colaborar con consumidores internos para asegurar que los datos recopilados cumplen con los requisitos de negocio
  14. Trabajar de manera transversal con equipos de producto, ingeniería y otros equipos de datos
  15. Fomentar una cultura de documentación y compartición de conocimientos

Requisitos técnicos esenciales:

  • Conocimiento en flujos de trabajo Git, revisiones de código y pipelines CI/CD
  • Experiencia con infraestructura en la nube como AWS
  • Conocimiento en sistemas de monitoreo como Grafana y Sentry
  • Entendimiento del entorno web (modelos, estándares, DOM, Request-Response, Cookies, Javascript, Headers, XHR)

Se valorará experiencia en diseño de sistemas tolerantes a fallos, despliegue en contenedores, desarrollo de crawlers escalables en Python y Scrapy, y liderazgo técnico.

Habilidades blandas:

  • Excelentes habilidades de comunicación en inglés
  • Actitud colaborativa y proactiva
  • Capacidad analítica y de resolución de problemas
  • Compromiso con la mejora continua y trabajo en equipo ágil

Centric Software ofrece igualdad de oportunidades sin discriminación por raza, sexo, orientación sexual, identidad de género, origen, edad, religión, veteranía, discapacidad o información genética.

Consigue la evaluación confidencial y gratuita de tu currículum.
o arrastra un archivo en formato PDF, DOC, DOCX, ODT o PAGES de hasta 5 MB.