Powiązane oferty

Brak wyników spełniających kryteria wyszukiwania.

Informacja o wygasłym ogłoszeniuOgłoszenie wygasło
company logo

Senior Data Engineer (AWS, Terraform, Python)

ScaloIkona lokalizacji

Rodzaj zatrudnienia
Rodzaj zatrudnieniaPełny etat
Doświadczenie
DoświadczenieSenior
Dodano
Dodano18 stycznia 2026
Zarobki
Zarobkido 160 PLN

Description

W Scalo zajmujemy się dostarczaniem projektów software'owych i wspieraniem naszych partnerów w rozwijaniu ich biznesu. Tworzymy oprogramowanie, które umożliwia ludziom dokonywanie zmian, działanie w szybszym tempie oraz osiąganie lepszych rezultatów. Jesteśmy firmą, która wykorzystuje szerokie spektrum usług IT, żeby pomagać klientom. Obszary naszego działania to m.in.: doradztwo technologiczne, tworzenie oprogramowania, systemy wbudowane, rozwiązania chmurowe, zarządzanie danymi, dedykowane zespoły developerskie. Cześć! U nas znajdziesz to, czego szukasz - przekonaj się!

Requirements

W Scalo czeka na Ciebie: uczestnictwo w projekcie realizowanym dla klientów z sektora publicznego i rządowego, obejmującym rozwój rozwiązań do backupu i odtwarzania danych w chmurze. Wykorzystywany stos technologiczny:

  • AWS (ECS, Lambda, RDS, S3, API Gateway)
  • Terraform
  • GitHub CI/CD
  • Python
  • SQL
  • AWS Glue
  • AWS Batch
  • Athena

projektowanie i implementacja skalowalnej oraz bezpiecznej infrastruktury chmurowej w AWS, rozwój i optymalizacja procesów ETL oraz pipeline’ów przetwarzania danych w środowisku chmurowym, automatyzacja infrastruktury oraz procesów wdrożeniowych z wykorzystaniem Terraform i GitHub CI/CD, dbanie o jakość, niezawodność i dostępność danych w data lake (CSV, Parquet), współpraca przy rozwoju mikroserwisów opartych o NodeJS i Python oraz ich integracja z ekosystemem AWS, praca 100% remote, znajomość języka angielskiego na poziomie minimum B2+, stawka do 160 zł/h przy B2B w zależności od doświadczenia.

Responsibilities

Ta oferta jest dla Ciebie, jeśli:

  • posiadasz senior-level doświadczenie w obszarze DevOps i pracy z chmurą AWS
  • bardzo dobrze znasz GitHub oraz GitHub CI/CD pipelines
  • masz wysokie doświadczenie w pracy z Terraform oraz Infrastructure as Code
  • pracowałeś/aś z Pythonem i SQL w kontekście ETL i przetwarzania danych
  • znasz usługi AWS takie jak ECS, Lambda, Glue, Batch, Athena, RDS (PostgreSQL) oraz CloudWatch
  • masz doświadczenie w pracy z data lake i formatami plików CSV oraz Parquet
  • cenisz automatyzację, innowacje oraz ciągłe doskonalenie rozwiązań
  • dobrze komunikujesz się i współpracujesz w zespole międzynarodowym

Zainteresowany ofertą?

Aplikuj już teraz!