
¡Activa las notificaciones laborales por email!
Genera un currículum adaptado en cuestión de minutos
Consigue la entrevista y gana más. Más información
Una empresa dedicada a la inteligencia de ingresos busca un Ingeniero de Datos para recolectar y mantener datos web mediante spiders en Python y JavaScript. El rol implica trabajar en un entorno remoto, ajustando algoritmos y garantizando la calidad de los datos. Se busca alguien con habilidades en scraping, adaptabilidad y ganas de aprender. Esta posición es ideal para principiantes con expectativas de crecimiento en el campo. Trabajo en un equipo colaborativo y con impacto directo en los productos de datos utilizados por operadores.
Contrato; empresa con sede en EE. UU. Operamos de forma remota, la mayoría del equipo de Ingeniería está en CET.
Walkway construye inteligencia de ingresos impulsada por IA para tours y actividades. Los operadores utilizan nuestra plataforma para análisis en tiempo real, benchmarks competitivos y precios dinámicos. Nuestro equipo de datos recopila datos web y API a gran escala para impulsar estas ideas.
Formamos un grupo pequeño y enfocado que posee la cobertura de fuentes y su frescura. El Líder de Adquisición de Datos establece prioridades y revisa arreglos complejos; el Ingeniero de Datos mantiene esquemas, pipelines y SLAs. Usted dirigirá la salud diaria de los spiders y el QA.
80 %
20 %
Pequeñas transformaciones cuando cambien los formatos para que las tablas de destino se mantengan consistentes. Mantendrá los pipelines saludables, apoyará a usuarios internos y realizará controles de calidad para que los datos se mantengan precisos en todo momento. Este es un puesto para principiantes con gran oportunidad de crecimiento.
Construir y mantener spiders y coleccionistas API en Python / JavaScript; adaptarse rápidamente cuando los sitios cambien.
• Manejo de fundamentos HTTP: encabezados, cookies, sesiones, paginación, límites de tasa, reintentos con backoff.
• Automatización de navegador cuando sea necesario: Playwright o Puppeteer para páginas dinámicas.
• Triage y reparación de fallas: selectores, flujos de autenticación, captcha o respuestas antibot, rotación de proxies.
• Monitoreo de ejecuciones y frescura; creación de alertas y paneles simples; escalado cuando los SLAs estén en riesgo.
• Escritura de verificaciones de validación y QA a nivel de fuente para impedir que datos malos entren al almacén.
• Documentar playbooks para que las correcciones sean repetibles.
Ajustar transformaciones pequeñas en Python o SQL cuando una salida de fuente cambie.
Reconciliar conteos de filas y campos clave con benchmarks; elevar y resolver problemas de calidad de datos.
Colaborar con ingenieros de datos en esquemas y cargas idempotentes al almacén.
Actualizar DAGs o trabajos cuando los formatos de fuente cambien para que las tareas hijas se ejecuten de manera idempotente y programada.
Proveer soporte técnico ligero a consumidores internos.
Seguir directrices legales y éticas para la recolección de datos; respetar términos, privacidad y controles de acceso.
Comunicar claramente en inglés con ingenieros y stakeholders no técnicos.
30 días: lanzar su primer spider, añadir monitoreo y una lista de verificación de QA, solucionar una falla real de principio a fin.
60 días: poseer un conjunto de fuentes; reducir la tasa de fallos y el tiempo medio de reparación; documentar playbooks.
90 días: proponer una mejora de fiabilidad o costo; automatizar un paso de QA repetible.
Impacto real en un producto de datos utilizado por operadores.
Desplegar rápidamente con un equipo pragmático y de bajo ego; ver su trabajo pasar de concepto a producción rápido.
Remoto total con sobreposición EU‑US; recorridos de equipo anuales; viajes cubiertos.
Aprender de ingenieros senior y crecer hacia caminos de ingeniero de datos o de plataforma.
Aplica a este puesto y agrega en tu currículum enlaces a un repositorio o muestra de código; si es posible un ejemplo de un scraper que construiste y qué recopiló.
Si resides en Europa, nos encantaría saber de ti.