Powiązane oferty

Brak wyników spełniających kryteria wyszukiwania.

company logo

Cloud Data Architect (GCP)

Future ProcessingIkona lokalizacjiPolska

Rodzaj zatrudnienia
Rodzaj zatrudnieniaPełny etat
Doświadczenie
DoświadczenieEkspert
Dodano
Dodano1 marca 2026
Zarobki
Zarobki165 - 240 PLN

Szukamy Ciebie, jeśli:

  • posiadasz min. 5 lat doświadczenia w pracy z danymi w Google Cloud Platform (potwierdzone komercyjnymi wdrożeniami produkcyjnymi) oraz doświadczenie w roli Lead Developera / Architekta lub pokrewnej,
  • masz szeroką wiedzę o usługach Data & Analytics w GCP (BigQuery, BigLake, Dataflow, Dataproc, Pub/Sub, Cloud Composer, Dataplex, Senstive Data Protection, Looker, Vertex AI),
  • biegle korzystasz z narzędzi i procesów CI/CD, IaC (Terraform i/lub Cloud Deploy/Cloud Build), Git,
  • potrafisz projektować i modyfikować modele danych oraz dobierać odpowiednią architekturę (DWH, Data Marts, Data Lake, Delta Lake, Lakehouse, BigLake),
  • architektury Lambda i Kappa nie kryją przed Tobą tajemnic; wiesz, jak implementować je w GCP
  • masz doświadczenie w budowie rozwiązań “near-real-time” (Pub/Sub, Dataflow)
  • korzystasz z SQL i Pythona na poziomie zaawansowanym,
  • potrafisz projektować skalowalne i odporne na błędy pipeline’y z wykorzystaniem Dataflow (Apache Beam) i Dataproc, dobierając odpowiednie wzorce dla przetwarzania batch & streaming,
  • masz doświadczenie w optymalizacji wydajności i kosztów pipeline’ów Dataflow oraz klastrów Dataproc (autoscaling, sizing workerów) oraz w implementacji dobrych praktyk monitoringu (Cloud Monitoring, Logging),
  • monitoring, diagnostyka i rozwiązywanie problemów w chmurze (Cloud Monitoring, Logging, Error Reporting, Cloud Trace) to dla Ciebie codzienność, a planowanie i optymalizacja kosztów (FinOps, GCP Pricing Calculator, BigQuery Reservations) nie stanowią wyzwania,
  • posiadasz wiedzę na temat migracji rozwiązań on-premise do GCP i znasz różne typy migracji (lift-and-shift, re-platform, re-architect),
  • wiesz, jak stosować mechanizmy bezpiecznego przechowywania i przetwarzania danych w GCP (VPC Service Controls, CMEK, DLP, Cloud KMS),
  • brałeś(aś) udział w spotkaniach przedsprzedażowych i umiesz przekładać wymagania biznesowe na rozwiązania techniczne,
  • cechuje Cię myślenie strategiczne i analityczne, dobra samoorganizacja, samodzielność, adaptacyjność, komunikatywność oraz proaktywność,
  • masz doświadczenie w mentorowaniu i szkoleniu inżynierów o mniejszym stażu oraz wspieraniu ich rozwoju,
  • prowadzenie prezentacji / prelekcji podczas wydarzeń branżowych nie spędza Ci snu z powiek,
  • jesteś otwarty(a) na wyjazdy służbowe,
  • posługujesz się językiem angielskim na poziomie zaawansowanym (min. C1).

Praca na tym stanowisku w naszej firmie oznacza:

  • konsultowanie rozwiązań z klientami – obecnymi i potencjalnymi – oraz doradztwo w doborze technologii GCP, z dążeniem do optymalnego kosztowo rozwiązania problemu biznesowego,
  • udział w spotkaniach discovery / pitch – prezentacja naszego doświadczenia, procesu, podejścia do GCP, doprecyzowanie wymagań,
  • tworzenie wkładu merytorycznego do ofert: schematy architektury, obliczenia TCO / ROI / kosztów GCP za pomocą Pricing Calculatora,
  • estymowanie projektów i zapotrzebowania na zasoby zespołu Data Solutions,
  • budowanie argumentacji przekonującej klienta do proponowanego rozwiązania, wskazywanie przewag nad alternatywami,
  • udział w spotkaniach ofertowych – odpowiadanie na pytania, prezentacja architektury i kosztorysu,
  • R&D w obszarze Data & Analytics GCP – analiza nowych usług i narzędzi pod kątem wartości biznesowej,
  • tworzenie Proof-of-Concept dla nowych koncepcji danych,
  • utrzymywanie relacji z technicznym zespołem klienta i koordynacja pracy inżynierów zaangażowanych w projekt,
  • aktywne zaangażowanie w rozwój linii biznesowej Data Solutions (rekrutacja, pozyskiwanie klientów, prelekcje konferencyjne, mentoring).
  • odpowiedzialność end-to-end za rozwiązania data-platformowe tworzone wspólnie z zespołem,
  • tworzenie i optymalizację potoków ETL/ELT w GCP (BigQuery, Dataflow, Dataproc, Cloud Composer),
  • tworzenie i modyfikowanie dokumentacji,
  • budowanie i utrzymywanie katalogu oraz modeli danych zgodnie z najlepszymi praktykami Data Governance,
  • analizę wymagań biznesowych i dobór optymalnych rozwiązań technologicznych,
  • analizowanie potencjalnych zagrożeń,
  • monitoring, diagnostykę i FinOps

Wynagrodzenie_architekt

165 – 240 zł/h netto + VAT (B2B)

19,700 – 29,300 zł brutto (UoP)

We may use artificial intelligence (AI) tools to support parts of the hiring process, such as reviewing applications, analyzing resumes, or assessing responses. These tools assist our recruitment team but do not replace human judgment. Final hiring decisions are ultimately made by humans. If you would like more information about how your data is processed, please contact us.

Zainteresowany ofertą?

Aplikuj już teraz!