INTERA está buscando un/a:
INGENIERO/A DE DESPLIEGUE EN EDGE
Puesto: Ingeniero/a de Despliegue en Edge (IA y Sistemas Embebidos) Ubicación: Barcelona o Zaragoza, España (modalidad híbrida; algunas opciones totalmente remotas o presenciales en otras ubicaciones) Tipo de empresa: Startup deep-tech, empresa de IA/cuántica o multinacional tecnológica/de ingeniería Tipo de contrato: Jornada completa o contrato de duración determinada (por ejemplo, hasta junio de 2026 en algunos casos) Rango salarial (orientativo para España 2026): 55.000 € – 90.000 €+ brutos anuales (superior para perfiles senior o con amplia experiencia; posibilidad de reubicación y visados para talento internacional)
Sobre el puesto
Buscamos un/a Ingeniero/a de Despliegue en Edge para optimizar y desplegar modelos de IA/ML de alto rendimiento en dispositivos edge con recursos limitados, permitiendo inteligencia en tiempo real y de bajo consumo en entornos descentralizados. Este rol actúa como puente entre la investigación/prototipado en IA y su ejecución eficiente y fiable, con un enfoque en compresión de modelos, aceleración por hardware, integración embebida y despliegue en producción.
Es un puesto ideal para ingenieros/as apasionados/as por el edge computing, la IA embebida y por llevar modelos de última generación (incluidos LLMs o modelos de visión) a dispositivos con fuertes restricciones de potencia, memoria y latencia.
Responsabilidades clave
- Optimizar, cuantizar, podar y comprimir modelos de IA/ML (por ejemplo, usando TensorFlow Lite, ONNX Runtime, PyTorch Mobile o herramientas personalizadas) para su despliegue en hardware edge (SoCs basados en ARM, NVIDIA Jetson, RISC-V o chips neuromórficos).
- Desarrollar e implementar pipelines de inferencia eficientes, incluyendo procesamiento en tiempo real, cómputo adaptativo y adaptación en el propio dispositivo/aprendizaje federado cuando aplique.
- Desplegar modelos en dispositivos edge: creación de scripts de despliegue, pipelines CI/CD para actualizaciones en edge, mecanismos OTA (over-the-air) e integración con firmware/sistemas operativos embebidos.
- Analizar, medir y depurar el rendimiento en tiempo de ejecución sobre hardware real, abordando aspectos como latencia, consumo energético, limitaciones térmicas y fiabilidad en condiciones reales.
- Colaborar con investigadores de IA, ingenieros de software embebido y equipos de hardware para definir requisitos, seleccionar aceleradores y garantizar flujos de trabajo de extremo a extremo (desde el entrenamiento en la nube hasta la inferencia en edge).
- Diseñar y automatizar marcos de prueba y validación para despliegues en edge (validación de precisión, pruebas de estrés y métricas específicas como FPS/vatio).
- Integrar soluciones de IA en edge con sistemas más amplios (orquestación en la nube, conectividad 5G/LoRa, sensores o mecanismos de arranque seguro).
- Resolver incidencias en producción, monitorizar modelos desplegados e implementar estrategias de reentrenamiento y rollback en entornos edge.
- Contribuir a buenas prácticas, documentación y herramientas para un despliegue escalable de IA en edge.
Requisitos
- Entre 3 y más de 7 años de experiencia en ingeniería de software o embebida, con experiencia demostrable en despliegue de modelos de ML en dispositivos edge/embebidos.
- Sólido dominio de Python, C/C++ (para código embebido o de alto rendimiento) y frameworks de ML (PyTorch, TensorFlow, ONNX).
- Experiencia en técnicas de optimización de modelos (cuantización, poda, destilación, destilación de conocimiento) y motores de ejecución (TensorRT, TFLite, OpenVINO).
- Conocimientos de sistemas embebidos, kernel/módulos Linux, compilación cruzada y plataformas hardware (por ejemplo, Raspberry Pi, Jetson, SoCs personalizados).
- Buen entendimiento de las restricciones del edge computing (bajo consumo, memoria y CPU limitadas, conectividad intermitente) y de sistemas en tiempo real.
- Grado o máster en Informática, Ingeniería Electrónica, IA, Sistemas Embebidos o campo relacionado (doctorado valorable para roles con fuerte componente de investigación).
- Sólidas habilidades de depuración, perfilado y resolución de problemas (herramientas como perf, Valgrind, gdb).
Se valorará positivamente:
- Experiencia con aceleradores de IA en edge, computación neuromórfica, RISC-V o inferencia de bajo consumo.
- Experiencia en MLOps/DevOps para edge (por ejemplo, Docker para entornos embebidos, variantes edge de Kubernetes, Ansible para gestión de flotas).
- Conocimientos de IA generativa y LLMs en edge (modelos pequeños/cuantizados, fine-tuning en el dispositivo).
- Familiaridad con despliegues seguros (cifrado, secure boot, seguridad en OTA).
- Experiencia en dominios como IoT, robótica, sistemas autónomos, IA cuántica o aplicaciones industriales en edge.
- Contribuciones open source o portfolio que demuestre despliegues en edge.
Qué ofrecemos
- Participar en proyectos punteros de IA en edge con impacto real (por ejemplo, inteligencia descentralizada y aplicaciones de baja latencia).
- Entorno colaborativo dentro de un ecosistema deep-tech en crecimiento, con oportunidades de innovación y participación en eventos.
- Compensación competitiva, trabajo híbrido flexible, desarrollo profesional y posible apoyo a la reubicación.
Cómo aplicar
Envía tu CV, carta de presentación y portfolio relevante (por ejemplo, repositorios de GitHub con despliegues en edge) a través de la página de empleo de la empresa, LinkedIn o por correo directo. Se valoran especialmente las candidaturas proactivas para puestos no publicados; puedes contactar mediante los formularios de la empresa destacando tu experiencia en IA embebida y edge.


