Brak wyników spełniających kryteria wyszukiwania.

Senior Data Engineer (AWS, Terraform, Python)
Scalo
Description
W Scalo zajmujemy się dostarczaniem projektów software'owych i wspieraniem naszych partnerów w rozwijaniu ich biznesu. Tworzymy oprogramowanie, które umożliwia ludziom dokonywanie zmian, działanie w szybszym tempie oraz osiąganie lepszych rezultatów. Jesteśmy firmą, która wykorzystuje szerokie spektrum usług IT, żeby pomagać klientom. Obszary naszego działania to m.in.: doradztwo technologiczne, tworzenie oprogramowania, systemy wbudowane, rozwiązania chmurowe, zarządzanie danymi, dedykowane zespoły developerskie. Cześć! U nas znajdziesz to, czego szukasz - przekonaj się!
Requirements
W Scalo czeka na Ciebie: uczestnictwo w projekcie realizowanym dla klientów z sektora publicznego i rządowego, obejmującym rozwój rozwiązań do backupu i odtwarzania danych w chmurze. Wykorzystywany stos technologiczny:
- AWS (ECS, Lambda, RDS, S3, API Gateway)
- Terraform
- GitHub CI/CD
- Python
- SQL
- AWS Glue
- AWS Batch
- Athena
projektowanie i implementacja skalowalnej oraz bezpiecznej infrastruktury chmurowej w AWS, rozwój i optymalizacja procesów ETL oraz pipeline’ów przetwarzania danych w środowisku chmurowym, automatyzacja infrastruktury oraz procesów wdrożeniowych z wykorzystaniem Terraform i GitHub CI/CD, dbanie o jakość, niezawodność i dostępność danych w data lake (CSV, Parquet), współpraca przy rozwoju mikroserwisów opartych o NodeJS i Python oraz ich integracja z ekosystemem AWS, praca 100% remote, znajomość języka angielskiego na poziomie minimum B2+, stawka do 160 zł/h przy B2B w zależności od doświadczenia.
Responsibilities
Ta oferta jest dla Ciebie, jeśli:
- posiadasz senior-level doświadczenie w obszarze DevOps i pracy z chmurą AWS
- bardzo dobrze znasz GitHub oraz GitHub CI/CD pipelines
- masz wysokie doświadczenie w pracy z Terraform oraz Infrastructure as Code
- pracowałeś/aś z Pythonem i SQL w kontekście ETL i przetwarzania danych
- znasz usługi AWS takie jak ECS, Lambda, Glue, Batch, Athena, RDS (PostgreSQL) oraz CloudWatch
- masz doświadczenie w pracy z data lake i formatami plików CSV oraz Parquet
- cenisz automatyzację, innowacje oraz ciągłe doskonalenie rozwiązań
- dobrze komunikujesz się i współpracujesz w zespole międzynarodowym
Zainteresowany ofertą?
Aplikuj już teraz!