Data Engineer (GCP must have) – remotely @ Crestt
Wymagania
- Minimum 2 lata doświadczenia jako Data Engineer lub pokrewnej roli.
- Praktyczna znajomość usług Google Cloud Platform, w tym:
- BigQuery, Dataflow, Pub/Sub, Cloud Storage, Composer
- Doświadczenie w pracy z Apache Spark i Kafka.
- Umiejętność budowy pipeline’ów danych (ETL/ELT) w środowiskach chmurowych.
- Znajomość Python lub Scala w kontekście przetwarzania danych.
- Dobra znajomość SQL i optymalizacji zapytań.
- Doświadczenie z narzędziami CI/CD i Git.
- Angielski na poziomie swobodnej komunikacji (B2+).
Mile widziane
- Znajomość dbt, Airflow lub innych narzędzi orkiestracji danych.
- Doświadczenie w architekturze Data Lake / Lakehouse.
- Wiedza z zakresu optymalizacji kosztów przetwarzania danych w GCP.
- Doświadczenie w pracy w środowisku multi-cloud (Azure / AWS + GCP).
Data Engineer (GCP must have) – remotely
Lokalizacja: 100% zdalnie
Wynagrodzenie: 130–165 PLN/h (B2B)
Poziom: Mid / Senior
O projekcie
Dołączysz do zespołu inżynierii danych, który rozwija skalowalne rozwiązania analityczne w chmurze Google Cloud Platform (GCP). Zespół buduje i rozwija nowoczesne pipeline’y danych (batch i streaming) przetwarzające duże wolumeny informacji z wielu źródeł — dane te zasilają kluczowe procesy analityczne i biznesowe.
To stanowisko w 100% skoncentrowane na developmentcie – projektowanie, implementacja, optymalizacja. Żadnych zadań utrzymaniowych.
Dlaczego warto
- Realny wpływ na rozwój nowoczesnej platformy danych — od koncepcji po wdrożenie.
- Praca z dużymi wolumenami danych i nowoczesnym stosiem technologicznym GCP.
- 100% rola rozwojowa (development, nie utrzymanie).
- Współpraca z międzynarodowymi zespołami i doświadczonymi inżynierami danych.
- Zdalnie z dowolnego miejsca w Polsce.
Proces rekrutacyjny
- Krótka rozmowa HR (15–20 minut).
- Weryfikacja techniczna z zespołem inżynierskim (ok. 1 godziny).
Brzmi ciekawie?
Jeśli chcesz pracować przy nowoczesnych projektach danych w GCP, rozwijać się w obszarze Big Data i mieć realny wpływ na architekturę platformy — to będzie świetne miejsce dla Ciebie.
,[Projektowanie i rozwój potoków danych (streaming / batch) w środowisku GCP. , Budowa i optymalizacja procesów przetwarzania danych w Apache Spark i Kafka. , Integracja danych z różnych źródeł oraz implementacja rozwiązań ETL / ELT. , Praca z danymi w dużej skali – transformacje, walidacja, kontrola jakości. , Udział w projektowaniu architektury danych oraz dobrych praktyk w zespole. , Współpraca z analitykami i zespołami produktowymi w dostarczaniu gotowych datasetów. ] Requirements: GCP, Apache Spark, ETL, BigQuery, PUB, Python, Scala, SQL, Git, Kafka, Cloud Storage, Composer, dbt, Airflow, Data Lake, Azure, AWS, Big DataKategorie
data
- Podrobné informace o nabídce práce
Firma: Crestt Lokalita: Remote Odvětví práce: data Pracovní pozice: Data Engineer (GCP must have) – remotely @ Crestt Směnnost práce fulltime - 40 hours per week Nástup do práce od: IHNED Nabízená mzda: neuvedeno Nabídka přidána: 18. 10. 2025
Pracovní pozice aktivní
Práce Data Engineer (GCP must have) – remotely @ Crestt: Často kladené otázky
👉 V jakém městě se nabízí nabídka práce Data Engineer (GCP must have) – remotely @ Crestt?
Práce je nabízena v lokalitě Remote.
👉 Jaká firma nabírá na tuto pozici?
Tato nabídka práce je do firmy Crestt.