Data Engineer (GCP must have) – remotely @ Crestt

Remote

Wymagania

  • Minimum 2 lata doświadczenia jako Data Engineer lub pokrewnej roli.
  • Praktyczna znajomość usług Google Cloud Platform, w tym:
  • BigQueryDataflowPub/SubCloud StorageComposer
  • Doświadczenie w pracy z Apache Spark i Kafka.
  • Umiejętność budowy pipeline’ów danych (ETL/ELT) w środowiskach chmurowych.
  • Znajomość Python lub Scala w kontekście przetwarzania danych.
  • Dobra znajomość SQL i optymalizacji zapytań.
  • Doświadczenie z narzędziami CI/CD i Git.
  • Angielski na poziomie swobodnej komunikacji (B2+).

Mile widziane

  • Znajomość dbtAirflow lub innych narzędzi orkiestracji danych.
  • Doświadczenie w architekturze Data Lake / Lakehouse.
  • Wiedza z zakresu optymalizacji kosztów przetwarzania danych w GCP.
  • Doświadczenie w pracy w środowisku multi-cloud (Azure / AWS + GCP).

Data Engineer (GCP must have) – remotely

Lokalizacja: 100% zdalnie

Wynagrodzenie: 130–165 PLN/h (B2B)

Poziom: Mid / Senior

O projekcie

Dołączysz do zespołu inżynierii danych, który rozwija skalowalne rozwiązania analityczne w chmurze Google Cloud Platform (GCP). Zespół buduje i rozwija nowoczesne pipeline’y danych (batch i streaming) przetwarzające duże wolumeny informacji z wielu źródeł — dane te zasilają kluczowe procesy analityczne i biznesowe.

To stanowisko w 100% skoncentrowane na developmentcie – projektowanie, implementacja, optymalizacja. Żadnych zadań utrzymaniowych.

Dlaczego warto

  • Realny wpływ na rozwój nowoczesnej platformy danych — od koncepcji po wdrożenie. 
  • Praca z dużymi wolumenami danych i nowoczesnym stosiem technologicznym GCP. 
  • 100% rola rozwojowa (development, nie utrzymanie). 
  • Współpraca z międzynarodowymi zespołami i doświadczonymi inżynierami danych. 
  • Zdalnie z dowolnego miejsca w Polsce. 

Proces rekrutacyjny


  1. Krótka rozmowa HR (15–20 minut). 
  2. Weryfikacja techniczna z zespołem inżynierskim (ok. 1 godziny). 

Brzmi ciekawie?

Jeśli chcesz pracować przy nowoczesnych projektach danych w GCP, rozwijać się w obszarze Big Data i mieć realny wpływ na architekturę platformy — to będzie świetne miejsce dla Ciebie.

,[Projektowanie i rozwój potoków danych (streaming / batch) w środowisku GCP. , Budowa i optymalizacja procesów przetwarzania danych w Apache Spark i Kafka. , Integracja danych z różnych źródeł oraz implementacja rozwiązań ETL / ELT. , Praca z danymi w dużej skali – transformacje, walidacja, kontrola jakości. , Udział w projektowaniu architektury danych oraz dobrych praktyk w zespole. , Współpraca z analitykami i zespołami produktowymi w dostarczaniu gotowych datasetów. ] Requirements: GCP, Apache Spark, ETL, BigQuery, PUB, Python, Scala, SQL, Git, Kafka, Cloud Storage, Composer, dbt, Airflow, Data Lake, Azure, AWS, Big Data

Kategorie

data

  • Podrobné informace o nabídce práce
    Firma: Crestt
    Lokalita: Remote
    Odvětví práce: data
    Pracovní pozice: Data Engineer (GCP must have) – remotely @ Crestt
    Směnnost práce fulltime - 40 hours per week
    Nástup do práce od: IHNED
    Nabízená mzda: neuvedeno
    Nabídka přidána: 18. 10. 2025
    Pracovní pozice aktivní
Odpovědět na inzerát
    Buďte první, kdo se na danou nabídku práce přihlásí!

Práce Data Engineer (GCP must have) – remotely @ Crestt: Často kladené otázky

👉 V jakém městě se nabízí nabídka práce Data Engineer (GCP must have) – remotely @ Crestt?

Práce je nabízena v lokalitě Remote.

👉 Jaká firma nabírá na tuto pozici?

Tato nabídka práce je do firmy Crestt.

0.1221