Want to hear how I work? Hit play.Kablio AI applies for you. You just show up to the interviewKablio AI helps you secure roles in construction, clean energy, facilities management, engineering, architecture, sustainability, environment and other physical world sectors.
Get hired, get rewarded!
Land a job through Kablio and earn a 5% salary bonus.
Exclusive benefits
5%Bonus
Senior Software Engineer, AI/ML Data Systems
Autodesk
Design and make software for architecture, engineering, construction, and entertainment industries.
Specialization in data & feature store infrastructure or labeling & human feedback systems for AI/ML data systems.
Develop and maintain monitoring systems for feature freshness, data drift, and data quality
Ensure compliance, lineage, and best practices for infrastructure as code
Développer des workflows pour l'alignement LLM, y compris le réglage des instructions et le classement des résultats RLHF (apprentissage par renforcement à partir du feedback humain)
Data & Feature Store Infrastructure: Build scalable backend systems for data ingestion, batch/streaming ETL pipelines, feature stores, vector-enabled APIs, and data compliance
Develop workflows for LLM alignment, including instruction tuning and RLHF (Reinforcement Learning from Human Feedback) output ranking
Drive annotation quality through processes such as inter-annotator agreement, gold standard samples, and anomaly detection
Integrate feature management solutions with vector databases to support embeddings and retrieval-augmented generation (RAG) workflows
Build and scale annotation platforms for diverse data types: text, image, video, audio, and 3D
Manage and scale internal/external labeling teams while maintaining secure data integration
Développer et maintenir des systèmes de surveillance pour la fraîcheur des fonctionnalités, la dérive des données et la qualité des données
Build and maintain low-latency online feature serving systems with consistency between training and inference
Intégrer des solutions de gestion des fonctionnalités avec des bases de données vectorielles pour prendre en charge les workflows d'intégration et de génération augmentée par la récupération (RAG)
Systèmes d'étiquetage et de feedback humain : vous concevrez des plateformes d'annotation multimodales (texte, image, audio, vidéo, 3D), développerez des workflows RLHF (ajustement des instructions, classement des résultats) et piloterez des innovations en matière d'étiquetage assisté par LLM
Design and implement scalable feature engineering systems for both batch and streaming computation
What you bring
cloud platforms
docker/kubernetes
infrastructure as code
feature store
python
rlhf/instructions
Connaissance des outils de copilotage de l'étiquetage, de l'apprentissage actif ou de la gestion d'équipes d'annotation hybrides
Expérience de travail avec des plateformes cloud (AWS, GCP ou Azure), des conteneurs (Docker/Kubernetes) et des outils d'infrastructure en tant que code (par exemple, Terraform)
RLHF/réglage des instructions ou développement de workflows d'annotation
Familiarity with labeling copilot tools, active learning, or managing hybrid annotation teams
Au moins 5 ans d'expérience dans l'ingénierie des données, les plateformes ML ou le développement backend
Expérience professionnelle avérée avec des plateformes de labellisation (par exemple, GroundTruth, Label Studio)
Concevoir et mettre en œuvre des systèmes d'ingénierie des fonctionnalités évolutifs pour le calcul par lots et en continu
Embed LLM-assisted labeling features such as auto-labeling, policy checking, and active learning
5+ years of experience in data engineering, ML platform, or backend development roles
Experience developing and operating distributed backend APIs and SDKs
Experience with batch and/or streaming data pipelines (e.g., Kafka, Flink, Spark, Ray) and orchestration tools (e.g., Airflow, Argo Workflow)
Gérez et faites évoluer les équipes d'étiquetage internes/externes tout en maintenant une intégration sécurisée des données
RLHF/instruction tuning, or annotation workflow development
Demonstrated experience at least in one the data areas: data catalog, data validation, versioning, lineage, and security/compliance
Hands-on experience with feature store frameworks (e.g., SageMaker Feature Store, Feast, Tecton, Hopsworks), or operating vector database systems for serving LLM use cases
Construire et maintenir des systèmes de service de fonctionnalités en ligne à faible latence, avec une cohérence entre l'entraînement et l'inférence
Expérience des pipelines de données par lots et/ou en streaming (par exemple, Kafka, Flink, Spark, Ray) et des outils d'orchestration (par exemple, Airflow, Argo Workflow)
Expérience avec les pipelines LLM, y compris les intégrations, la génération augmentée par la récupération (RAG) ou l'ingénierie de prompts
Proficiency in at least one modern programming language (Python preferred)
Proven working experience with labeling platforms (e.g., GroundTruth, Label Studio)
Construire et faire évoluer des plateformes d'annotation pour divers types de données : texte, image, vidéo, audio et 3D
Expérience avérée dans au moins un des domaines suivants : catalogue de données, validation des données, gestion des versions, lignage et sécurité/conformité
Knowledge of knowledge graphs or semantic data modeling
Garantir la conformité, la traçabilité et les meilleures pratiques pour l'infrastructure en tant que code
Améliorez la qualité des annotations grâce à des processus tels que la concordance entre annotateurs, les échantillons de référence et la détection des anomalies
Expérience dans le développement et l'exploitation d'API et de SDK backend distribués
Intégrer des fonctionnalités d'étiquetage assisté par LLM telles que l'étiquetage automatique, la vérification des politiques et l'apprentissage actif
Expérience pratique des frameworks de magasins de fonctionnalités (par exemple, SageMaker Feature Store, Feast, Tecton, Hopsworks) ou de l'exploitation de systèmes de bases de données vectorielles pour des cas d'utilisation LLM
Experience working with cloud platforms (AWS, GCP, or Azure), containers (Docker/Kubernetes), and infrastructure-as-code tools (e.g., Terraform)
Maîtrise d'au moins un langage de programmation moderne (Python préféré).
Connaissance des graphes de connaissances ou de la modélisation sémantique des données
Experience with LLM pipelines, including embeddings, retrieval-augmented generation (RAG), or prompt engineering
Benefits
Infrastructure de stockage des données et des fonctionnalités : vous construirez des systèmes backend évolutifs pour l'ingestion de données, les pipelines ETL par lots/en continu, les magasins de fonctionnalités, les API compatibles avec les vecteurs et la conformité des données
Training + Development
Information not given or found
Interview process
Information not given or found
Visa Sponsorship
Information not given or found
Security clearance
compliance, lineage, and best practices for infrastructure as code
Hey there! Before you dive into all the good stuff on our site, let’s talk cookies—the digital kind. We use these little helpers to give you the best experience we can, remember your preferences, and even suggest things you might love. But don’t worry, we only use them with your permission and handle them with care.