Powiązane oferty

Brak wyników spełniających kryteria wyszukiwania.

company logo

Senior Data Engineer (AWS, Terraform, Python)

ScaloIkona lokalizacji

Rodzaj zatrudnienia
Rodzaj zatrudnieniaPełny etat
Doświadczenie
DoświadczenieSenior
Dodano
Dodano18 stycznia 2026
Zarobki
ZarobkiDo uzgodnienia

Description

W Scalo zajmujemy się dostarczaniem projektów software'owych i wspieraniem naszych partnerów w rozwijaniu ich biznesu. Tworzymy oprogramowanie, które umożliwia ludziom dokonywanie zmian, działanie w szybszym tempie oraz osiąganie lepszych rezultatów. Jesteśmy firmą, która wykorzystuje szerokie spektrum usług IT, żeby pomagać klientom. Obszary naszego działania to m.in.: doradztwo technologiczne, tworzenie oprogramowania, systemy wbudowane, rozwiązania chmurowe, zarządzanie danymi, dedykowane zespoły developerskie. Cześć! U nas znajdziesz to, czego szukasz - przekonaj się!

Requirements

W Scalo czeka na Ciebie: uczestnictwo w projekcie realizowanym dla klientów z sektora publicznego i rządowego, obejmującym rozwój rozwiązań do backupu i odtwarzania danych w chmurze. Wykorzystywany stos technologiczny:

  • AWS (ECS, Lambda, RDS, S3, API Gateway)
  • Terraform
  • GitHub CI/CD
  • Python
  • SQL
  • AWS Glue
  • AWS Batch
  • Athena

projektowanie i implementacja skalowalnej oraz bezpiecznej infrastruktury chmurowej w AWS, rozwój i optymalizacja procesów ETL oraz pipeline’ów przetwarzania danych w środowisku chmurowym, automatyzacja infrastruktury oraz procesów wdrożeniowych z wykorzystaniem Terraform i GitHub CI/CD, dbanie o jakość, niezawodność i dostępność danych w data lake (CSV, Parquet), współpraca przy rozwoju mikroserwisów opartych o NodeJS i Python oraz ich integracja z ekosystemem AWS, praca 100% remote, znajomość języka angielskiego na poziomie minimum B2+, stawka do 160 zł/h przy B2B w zależności od doświadczenia.

Responsibilities

Ta oferta jest dla Ciebie, jeśli:

  • posiadasz senior-level doświadczenie w obszarze DevOps i pracy z chmurą AWS
  • bardzo dobrze znasz GitHub oraz GitHub CI/CD pipelines
  • masz wysokie doświadczenie w pracy z Terraform oraz Infrastructure as Code
  • pracowałeś/aś z Pythonem i SQL w kontekście ETL i przetwarzania danych
  • znasz usługi AWS takie jak ECS, Lambda, Glue, Batch, Athena, RDS (PostgreSQL) oraz CloudWatch
  • masz doświadczenie w pracy z data lake i formatami plików CSV oraz Parquet
  • cenisz automatyzację, innowacje oraz ciągłe doskonalenie rozwiązań
  • dobrze komunikujesz się i współpracujesz w zespole międzynarodowym

Zainteresowany ofertą?

Aplikuj już teraz!