


Mid Data Engineer
Twinco Capital es una fintech fundada en 2016 que está transformando la financiación de la cadena de suministro a nivel global. Ayuda a proveedores internacionales de grandes marcas a financiar su producción cuando más lo necesitan, incluso antes de empezar a fabricar.
A diferencia del factoring tradicional, Twinco financia desde la orden de compra hasta la entrega: adelanta capital en el momento en que se emite la orden de compra y completa la financiación tras la entrega. Con cerca de 1.000 millones de dólares financiados en más de 20 países, están construyendo una plataforma donde la data intelligence guía decisiones clave para el negocio.
Ahora quieren reforzar su equipo de tecnología incorporando a un/a Data Engineer que les ayude a construir y escalar su plataforma de datos. ¿Te atreves?
¿Qué harás?
Para empezar, un poco de contexto: Twinco Capital no es una fintech más. Aquí no se trata solo de mover dinero, sino de entender qué está pasando en cadenas de suministro largas, complejas y distribuidas por medio mundo. La mayoría de sus proveedores están en Asia, los datos llegan en formatos muy distintos y no siempre cuando a uno le gustaría, y aún así el negocio necesita tomar decisiones rápidas y bien informadas.
En este momento, Twinco está reforzando su área de datos. El equipo está en plena reconstrucción: migrando todo el entorno de datos a AWS, consolidando un data warehouse común y rehaciendo pipelines para dejar atrás soluciones heredadas que no escalan bien. Es un momento especialmente interesante para sumarse, porque muchas decisiones estructurales todavía están sobre la mesa y hay margen real para aportar criterio técnico.

A partir de ahí, tu trabajo como Data Engineer será ayudar a construir las bases que permitan que todo esto funcione. Estarás muy enfocado/a en la ingesta y transformación de datos: órdenes de compra y facturas que llegan por SFTP, ficheros, APIs externas o integraciones puntuales con terceros. Tu día a día combinará Python, SQL y herramientas de AWS para crear data pipelines fiables, mantenibles y pensados para crecer, siempre trabajando de la mano de sus Senior Data Engineers y en contacto directo con equipos de negocio.
No se espera que lo sepas todo desde el primer día, pero sí que tengas curiosidad, criterio y ganas de entender el “para qué” de los datos que tocas. Aquí los datos no viven en un silo: lo que construyas acaba influyendo en decisiones reales de financiación, riesgo y crecimiento.
Tu evolución

En 1 mes
En el primer mes, el foco estará en entender bien el contexto. Conocerás el producto, el modelo de negocio y cómo se utilizan los datos hoy en Twinco, además de la arquitectura actual del área de datos y el estado de la migración a AWS. Trabajarás muy de cerca con el Senior Data Engineer, familiarizándote con las principales fuentes de datos (órdenes de compra, facturas, ficheros vía SFTP, APIs externas) y empezando a participar en tareas de ingesta y ETL, mientras identificas posibles fricciones o mejoras en los pipelines existentes.
Tus responsabilidades
- Construir y mantener data pipelines escalables y fiables para la ingesta y transformación de datos.
- Desarrollar procesos de ETL principalmente en Python, adaptándose a fuentes de datos muy heterogéneas.
- Trabajar con SQL para transformación, modelado y consulta de datos, apoyándose en DBT.
- Participar activamente en la consolidación del data warehouse en AWS.
- Integrar datos procedentes de distintos orígenes: ficheros, SFTP, APIs externas y otras fuentes de terceros.
- Documentar procesos y contribuir a definir estándares y buenas prácticas dentro del equipo de datos.
¿Cómo lo harás?
Trabajarás dentro del área de producto y tecnología, reportando al CPTO, en un equipo de unas 15 personas dividido en dos grandes subequipos: desarrollo de producto y datos. El equipo de datos está en plena fase de consolidación y crecimiento, lo que implica un entorno cercano, con acompañamiento técnico diario y mucho foco en construir bases sólidas más que en correr sin dirección.
La forma de trabajar combina Scrum y Kanban. El desarrollo de nuevas funcionalidades y mejoras se organiza en sprints quincenales, mientras que el soporte operativo, la corrección de bugs y las incidencias críticas se gestionan en flujo continuo Kanban. Además, el trabajo se estructura en ciclos trimestrales, donde se definen objetivos de producto y prioridades alineadas con negocio y con la gestión del riesgo. Esto permite tener foco a corto plazo sin perder de vista el contexto más amplio.
En el día a día participarás en los rituales habituales del equipo: planificación de sprint, dailies breves, revisiones y demos, retrospectivas quincenales y sesiones periódicas de refinamiento de backlog. A nivel de herramientas, actualmente utilizan Notion para la gestión y trazabilidad del trabajo y la documentación, aunque está previsto migrar próximamente a Jira para la gestión del backlog y a Google Chat para la comunicación diaria. El código se gestiona con Git (Bitbucket), trabajando con pull requests y code reviews como base del control de calidad antes de los despliegues.

Todo esto ocurre en un entorno mayoritariamente remoto, con comunicación constante y una expectativa clara de autonomía progresiva. No se espera que lo sepas todo desde el primer día, pero sí que preguntes, propongas y entiendas el impacto de lo que construyes. Aquí los datos no viven en un silo: lo que hagas acaba influyendo en decisiones reales de financiación, riesgo y crecimiento.
¿Cuándo trabajarás?
El horario de trabajo es de 9:00 a 18:00, de lunes a viernes. El equipo valora mucho el respeto por el tiempo de los demás, y eso se nota especialmente en las reuniones: las dailies son siempre de 9:00 a 9:15, empiezan puntuales y terminan puntuales.
Fuera de ese marco, el trabajo está orientado a objetivos y a que las cosas salgan bien, con flexibilidad y autonomía para organizar el día a día, especialmente en un entorno mayoritariamente remoto.
Día laborable
Jornada completaVacaciones
23 días¿Dónde trabajarás?
Presencial
Teletrabajo
La posición tiene base en Madrid y se trabaja con un modelo de 95 % remoto, con un único día presencial al mes.
El onboarding será principalmente remoto, aunque el primer día sí tendrás que acudir a la oficina para recoger el ordenador, recibir las primeras indicaciones y firmar el contrato. La presentación al resto del equipo se hará en el primer desayuno presencial que coincida tras tu incorporación.
Ese día al mes la reunión tiene lugar en las oficinas de Alcobendas y sirve para ponerse al día y, compartir con el equipo.
¿Con quién trabajarás?
Formarás parte de un equipo de producto y tecnología de unas 15 personas (por ahora), que está creciendo para acompañar el momento actual de la compañía.
Reportarás directamente a Mariano Klein, CPTO de Twinco y responsable de producto y tecnología. Mariano lidera tanto la evolución del producto como la parte técnica, y está muy involucrado en la reconstrucción y consolidación del área de datos.
Trabajarás dentro del equipo de datos, que hoy está formado por un, Data Lead, y una Data Analyst, además de algún nuevo compañero que está a punto de incorporarse.
El acompañamiento técnico será cercano desde el primer día y la colaboración dentro del equipo es constante, así que no tardarás mucho en sentirte parte del grupo y en entender cómo encaja tu trabajo en el día a día de Twinco.
¿Qué piden?
En su «lista de los Reyes Magos» nos han pedido a un/a Data Engineer que venga con:
- Experiencia de al menos 3 años trabajando como Data Engineer o en un rol muy cercano.
- Buen dominio de Python para scripting, automatización y construcción de ETLs.
- Muy buen manejo de SQL para transformación y consulta de datos.
- Experiencia trabajando con DBT para modelado y transformación.
- Conocimiento práctico del ecosistema AWS, especialmente servicios de datos como S3, Glue, Athena o MWAA.
- Experiencia integrando datos desde distintas fuentes (ficheros, SFTP, APIs, etc.).
- Conocimiento de Git y flujos básicos de CI/CD.
- Capacidad para trabajar con datos “imperfectos” sin perder la calma ni el criterio.
- Inglés suficiente para entenderte y hacerte entender (nivel B2 aprox.).
- Residir en Madrid o tener disponibilidad para acudir puntualmente a la oficina. Al menos una vez al mes.
Les dejarías boquiabiertos si además…
- Tienes background previo en backend, sistemas o roles técnicos similares.
- Experiencia con infrastructure as code (por ejemplo, CloudFormation o Terraform).
- Conocimientos de Docker y/o Kubernetes.
- Experiencia con AWS Lake Formation o Lambda.
Familiaridad con herramientas de visualización como QuickSight o Looker.
Tecnologías
Innegociable
Python
Intermedio ETL
Intermedio 
SQL
Intermedio
Estaría bien
AWS
Intermedio
Suma puntos
Docker
Básico 
Terraform
Básico AWS Lambda
Básico
Otras habilidades
Innegociable
Adaptabilidad al cambio
Autonomía en el aprendizaje
Trabajo en equipo
Proactividad
Estaría bien
Pensamiento analítico
Pensamiento creativo
Suma puntos
Liderazgo
Idiomas
¿Qué ofrecen?
Salario
€45-50KRemoto
95%🏖️ 23 días laborables de vacaciones al año, para desconectar de verdad cuando toque. Y la posibilidad de contratar seguro de salud en condiciones ventajosas, gracias al acuerdo negociado por Twinco (totalmente opcional).
Beneficios
Seguro de salud
Dinámicas y eventos de teambuilding
What the FAQ?
El proceso consta de dos entrevistas. La primera será con Mariano Klein (CPTO) y con el Data Lead, y servirá para conoceros, profundizar en el encaje técnico y resolver dudas sobre el rol.
Si todo encaja, habrá una segunda entrevista con la CEO y un consultor externo, que será en inglés.