Brak wyników spełniających kryteria wyszukiwania.
Senior MLOps Engineer
Antal Sp. z o.o.Polska
Opis oferty
Jako MLOps Platform Engineer będziesz pełnił rolę konsultanta MLOps dla klientów korporacyjnych, wspierając transformację ich operacji związanych z infrastrukturą ML. Rola ta łączy wiedzę z zakresu inżynierii platform z ukierunkowaniem na potrzeby klienta — będziesz ściśle współpracować z innymi specjalistami oraz zespołami inżynierskimi klienta, aby budować i optymalizować podstawową infrastrukturę ML. Będziesz działać w środowiskach wymagających dużej niezależności technicznej oraz silnych umiejętności zarządzania relacjami z klientem.
Zadania:
- Tworzenie architektury systemów kompilacji na dużą skalę, obsługujących złożone procesy szkolenia i wdrażania modelu ML klienta.
- Projektowanie i wdrażanie rozwiązań integracji z systemami HPC przy użyciu REST API Slurm, obsługujących natywne dla chmury obciążenia ML klienta na platformie Google Cloud Platform (GCP).
- Optymalizacja wydajności skonteneryzowanych obciążeń klienta, w tym dużych kontenerów oraz długo działających procesów uczenia maszynowego (ML).
- Implementacja infrastruktury klienta przy użyciu Terraform na GCP, z integracją istniejących środowisk Vertex AI i GKE.
- Prowadzenie inicjatyw migracji infrastruktury klienta z Azure DevOps do GitHub Actions, z uwzględnieniem ustalonych terminów i ograniczeń.
- Ścisła współpraca z zespołami inżynierskimi klienta w celu zapewnienia, że operacje platformy spełniają ich konkretne wymagania biznesowe oraz potrzeby związane z onboardowaniem.
Wymagania:
- Ponad 5 lat doświadczenia w inżynierii platform z udokumentowanymi sukcesami w realizacji projektów dla klientów w środowiskach doradczych.
- Duża wiedza z zakresu infrastruktury GCP i wdrażania platformy Vertex AI.
- Biegłość w tworzeniu i optymalizacji backendowych usług w Pythonie.
- Praktyczne doświadczenie w Kubernetes i pracy z GKE w środowiskach korporacyjnych.
- Udokumentowane doświadczenie w stosowaniu Infrastructure as Code z wykorzystaniem Terraform w projektach wdrożeniowych.
- Doświadczenie w dostarczaniu systemów buildowania na dużą skalę oraz optymalizacji pipeline'ów CI/CD.
- Znajomość strategii konteneryzacji złożonych obciążeń ML i optymalizacji ich wydajności.
- Doświadczenie w pracy w środowiskach opartych na Git oraz w projektach migracyjnych do GitHub Actions.
- Zrozumienie środowisk HPC oraz systemów kolejkowania zadań (Slurm REST API).
- Doświadczenie we wdrażaniu i optymalizacji modeli PyTorch w środowiskach ML na poziomie korporacyjnym.
- Doświadczenie w implementacji komponentów platform ML (Feature Store’y, szablony modeli, usługi zadań).
- Doświadczenie w kontaktach z klientem w zakresie optymalizacji wydajności baz danych dla obciążeń ML.
- Znajomość integracji z API modeli językowych (LLM) oraz infrastruktury GenAI w środowiskach regulowanych.
Klient:
Nasz klient to globalna firma technologiczna specjalizująca się w doradztwie IT, inżynierii oprogramowania, chmurze obliczeniowej, danych oraz sztucznej inteligencji. Wspiera organizacje na całym świecie w ich cyfrowej transformacji, oferując zarówno usługi doradcze, jak i tworzenie oprogramowania. Firma kładzie duży nacisk na innowacyjność, dzielenie się wiedzą oraz ciągły rozwój swoich zespołów technicznych.
Oferujemy:
- Współpracę w międzynarodowym środowisku
- Możliwość pracy przy nowoczesnych, skalowalnych projektach w chmurze
- Pełne wsparcie i dzielenie się wiedzą w doświadczonym zespole
- Elastyczny model pracy zdalnej
- Szansa na rozwój umiejętności technicznych i udział w innowacyjnych inicjatywach
- Konkurencyjne wynagrodzenie w ramach umowy B2B
Proces rekrutacyjny:
- Weryfikacja aplikacji
- Wstępna akceptacja
- Rozmowa telefoniczna z rekruterem
- Weryfikacja techniczna z klientem
- Finalna rozmowa z przedstawicielami klienta
- Oferta pracy
Oferta pracy
Gotowy na kolejne wielkie wyzwanie? Aplikuj za pomocą formularza rekrutacyjnego i dołącz do nas!
Zainteresowany ofertą?
Aplikuj już teraz!