Powiązane oferty

Brak wyników spełniających kryteria wyszukiwania.

company logo

Data/AI Engineer

ScaloIkona lokalizacjiPolska

Rodzaj zatrudnienia
Rodzaj zatrudnieniaPełny etat
Doświadczenie
DoświadczenieSenior
Dodano
Dodano23 marca 2026
Zarobki
Zarobkido 205 PLN

Wstęp

W Scalo zajmujemy się dostarczaniem projektów software'owych i wspieraniem naszych partnerów w rozwijaniu ich biznesu. Tworzymy oprogramowanie, które umożliwia ludziom dokonywanie zmian, działanie w szybszym tempie oraz osiąganie lepszych rezultatów. Jesteśmy firmą, która wykorzystuje szerokie spektrum usług IT, żeby pomagać klientom. Obszary naszego działania to m.in.: doradztwo technologiczne, tworzenie oprogramowania, systemy wbudowane, rozwiązania chmurowe, zarządzanie danymi, dedykowane zespoły developerskie. Cześć! U nas znajdziesz to, czego szukasz - przekonaj się!

Co czeka na Ciebie

  • uczestnictwo w projekcie dotyczącym kompleksowej migracji platformy danych z Cloudera (on premise) do nowoczesnej architektury opartej o Google Cloud Platform oraz wdrożenia nowych rozwiązań Data/AI w chmurze w bankowości,
  • analiza i inwentaryzacja istniejących rozwiązań legacy w Cloudera,
  • wytyczanie ścieżki migracji (m.in. praca nad strategią, podejściem, rekomendacjami technicznymi),
  • przeniesienie oraz modernizacja procesów do usług GCP,
  • implementacja rozwiązań Data/AI z wykorzystaniem Dataproc, Dataflow, BigQuery, Cloud Composer i narzędzi automatyzacji,
  • współpraca z zespołem Data oraz partnerami Klienta w środowisku międzynarodowym,
  • praca w modelu zdalnym (warto jednak wziąć pod uwagę 2-3 dni onboardingu w Katowicach i sporadyczne warsztaty),
  • stawka do 205 zł/h przy B2B w zależności od doświadczenia.

Ta oferta jest dla Ciebie, jeśli

  • jesteś Data Engineerem z co najmniej 5-7-letnim doświadczeniem zawodowym,
  • masz solidne doświadczenie w projektach migracyjnych (ze środowiska on premise na chmurę)
  • bardzo dobrze znasz język Python (pod względem procesów ETL, pipeline'ow danych, automatyzacji),
  • dobrze znasz Java (szczególnie w kontekście przetwarzania danych, m.in. Spark, Beam),
  • posiadasz doświadczenie w projektowaniu i realizacji złożonych pipeline'ów danych (batch i streaming) w środowiskach produkcyjnych,
  • potrafisz tworzyć architekturę rozwiązań danych w GCP z uwzględnieniem skalowalności, bezpieczeństwa i kosztów,
  • możesz pochwalić się praktyczną znajomością narzędzi orkiestracji, CI/CD i automatyzacji (Airflow, Git, Terraform lub podobne),
  • Twój poziom języka angielskiego pozwala na swobodną komunikację (najlepiej poziom C1),
  • posiadasz doświadczenie w pracy w środowisku międzynarodowym oraz w projektach realizowanych z udziałem zewnętrznych partnerów technologicznych,
  • masz doświadczenie w analizie istniejących rozwiązań legacy i rekomendowaniu docelowych architektur w chmurze,
  • posiadasz wiedzę niezbędną do rozumienia zagadnień Data Governance, bezpieczeństwa danych i kontroli dostępu w środowiskach chmurowych,
  • lubisz samodzielną pracę i nie boisz się podejmować ważne decyzje techniczne, ale cenisz też sobie pracę zespołową,
  • wyróżniają Cię wysokie kompetencje komunikacyjne.

Zainteresowany ofertą?

Aplikuj już teraz!