MLOps/LLMOps Engineer
Poznaj Onwelo
Onwelo jest partnerem technologicznym, który dostarcza kompleksowe usługi, od strategii i architektury, przez wdrożenia, po utrzymanie, w obszarach transformacji cyfrowej, danych i automatyzacji. Nasz zespół liczy ponad 400 specjalistów z silnymi kompetencjami seniorskim, a na koncie mamy 300+ zrealizowanych projektów dla dużych organizacji w Polsce, Europie i USA. Działamy z kilku polskich miast oraz z biur w Niemczech, Szwajcarii i USA, łącząc lokalną obecność z globalnym zasięgiem.
O projekcie
Do naszego zespołu poszukujemy MLOps / LLMOps Engineera, który dołączy do projektu budowy i rozwoju platformy AI w środowisku enterprise (branża ubezpieczeniowa).
Projekt realizowany jest w oparciu o Azure, architekturę hybrydową (cloud + on-prem) oraz produkcyjne wykorzystanie modeli ML i LLM.
Szukamy osoby, która dobrze czuje się na styku Data Science i IT Operations i ma doświadczenie we wdrażaniu, utrzymaniu oraz skalowaniu modeli ML/GenAI w środowiskach regulowanych.
Twoje zadania
Projektowanie, budowanie i utrzymywanie platformy MLOps / LLMOps wspierającej cały cykl życia modeli ML i GenAI
Tworzenie skalowalnych środowisk treningowych i inferencyjnych w oparciu o Azure Machine Learning, Azure AI Foundry oraz Kubernetes (AKS)
Implementowanie i rozwijanie pipeline’ów CI/CD/CT dla rozwiązań ML (automatyczne testy, wersjonowanie danych i modeli, continuous training)
Konteneryzowanie modeli (Docker) i zarządzanie ich wdrożeniami na klastrach Kubernetes w architekturze hybrydowej
Wdrażanie rozwiązań z zakresu monitoringu i observability (wydajność modeli, data drift, model drift, alertowanie)
Zapewnianie audytowalności, lineage i bezpieczeństwa modeli zgodnie z wymaganiami regulacyjnymi (AI Act, RODO/GDPR)
Optymalizowanie kosztów i wydajności infrastruktury chmurowej oraz czasu inferencji modeli
Współpracowanie z zespołami Data Science, IT Operations oraz biznesem na każdym etapie rozwoju rozwiązania
Kogo szukamy
Masz minimum 3 lata doświadczenia w obszarze DevOps, MLOps lub inżynierii oprogramowania, w tym praktykę pracy z modelami ML na produkcji
Bardzo dobrze znasz Docker i Kubernetes (AKS, Helm, Ingress, zarządzanie klastrami)
Masz doświadczenie z chmurą publiczną – preferowany Azure (Azure ML, AKS, ACR), ale dopuszczamy AWS/GCP z gotowością do pracy w Azure
Tworzyłeś/-aś pipeline’y CI/CD (Azure DevOps, GitHub Actions, Jenkins), również z etapami treningu i wdrażania modeli ML
Programujesz w Pythonie i posługujesz się skryptami Bash/Shell
Znasz narzędzia MLOps takie jak MLflow, Kubeflow, DVC lub rozwiązania natywne chmury
Pracowałeś/-aś z Infrastructure as Code (Terraform, Bicep, Ansible)
Świadczysz usługi z terytorium Polski i jesteś gotowy/-a na pracę hybrydową (min. 1 dzień w tygodniu z biura w Warszawie)
Potrafisz przekładać potrzeby biznesowe na stabilne i bezpieczne rozwiązania technologiczne
Mile widziane:
Certyfikaty Azure DevOps Engineer Expert (AZ-400) lub Azure AI Engineer (AI-102)
Doświadczenie we wdrażaniu LLM, GenAI oraz architektur RAG
Co oferujemy
Elastyczne godziny oraz możliwość pracy zdalnej
Udział w ciekawych projektach dla globalnych klientów
Aż 80% awansów w naszej firmie odbywa się wewnętrznie
90% kadry zarządzającej ma wykształcenie techniczne
Dostęp do szkoleń wewnętrznych i ścieżek rozwojowych
Udział w wydarzeniach zespołowych, firmowych spotkaniach i Town Hallach
Wsparcie w budowaniu profesjonalnego wizerunku (personal branding)
Dostęp do ubezpieczenia na życie oraz prywatnej opieki medycznej dla siebie i rodziny
Karta MultiSport, która wspiera dbałość o zdrowie i kondycję
- Dział
- Data/AI
- Lokalizacje
- Warszawa
- Tryb pracy
- Zdalnie
- Wynagrodzenie dzienne
- 1 100 PLN - 1 500 PLN
- Typ zatrudnienia
- W pełnym wymiarze godzin