Data Engineer (Spark) @ Scalo
- masz co najmniej 7 lat doświadczenia w programowaniu,
- przez minimum 3 lata pracujesz z technologiami Big Data, najlepiej Spark i Scala,
- znasz podejście Agile/Scrum,
- korzystasz z narzędzi Continuous Integration – Git, GitHub, Jenkins,
- swobodnie posługujesz się SQL,
- komunikujesz się w języku angielskim na poziomie minimum B2,
- dodatkowym atutem będzie: doświadczenie z technologiami frontendowymi: React, TypeScript, Next.js, Qlik, umiejętność pisania skryptów w Bash, znajomość narzędzia Control-M, znajomość Docker, Kubernetes, AWS S3, Azure, AWS
W Scalo zajmujemy się dostarczaniem projektów softwareowych i wspieraniem naszych partnerów w rozwijaniu ich biznesu. Tworzymy oprogramowanie, które umożliwia ludziom dokonywanie zmian, działanie w szybszym tempie oraz osiąganie lepszych rezultatów. Jesteśmy firmą, która wykorzystuje szerokie spektrum usług IT, żeby pomagać klientom.
Obszary naszego działania to m.in.: doradztwo technologiczne, tworzenie oprogramowania, systemy wbudowane, rozwiązania chmurowe, zarządzanie danymi, dedykowane zespoły developerskie.
Cześć!
U nas znajdziesz to, czego szukasz - przekonaj się!
Co dla Ciebie mamy:
- długofalową współpracę - różnorodne projekty (działamy w ramach Software Services, Embedded Services, Data Services, Cloud Services),
- możliwość rozwoju kompetencji we współpracy z naszym Center of Excellence,
- kafeteryjny system benefitów – Motivizer,
- prywatną opiekę medyczną – Luxmed.
Brzmi interesująco? Aplikuj – czekamy na Twoje CV!
,[uczestnictwo w projekcie dot. branży finansowej. Wykorzystywany stos technologiczny: Scala, Apache Spark, SQL/HQL, Airflow, Control-M, Jenkins, GitHub, Hive, Databricks, Azure, AWS S3,, tworzenie kompleksowych procesów ETL z wykorzystaniem Spark/Scala – obejmujących transfer danych do/z Data Lake, walidacje techniczne oraz implementację logiki biznesowej,, dokumentowanie tworzonych rozwiązań w narzędziach takich jak: JIRA, Confluence czy ALM,, weryfikacja jakości dostarczanego rozwiązania – projektowanie i przeprowadzanie testów integracyjnych, zapewniających jego poprawne działanie i zgodność z innymi komponentami,, praca w modelu hybrydowym: 1-2 razy w tygodniu praca z biura w Warszawie,, stawka do 170zł/h przy B2B w zależności od doświadczenia] Requirements: Big Data, Spark, Scala, Continuous integration, GitHub, Jenkins, SQL, Agile, Scrum, React, TypeScript, Next.js, Qlik, Bash, Control-M, Docker, Kubernetes, AWS S3, Azure, AWS Additionally: Remote work, English lessons, Benefit platform, Private healthcare, International projects, Platforma edukacyjna.Kategorie
data
- Podrobné informace o nabídce práce
Firma: Scalo Lokalita: Práce v Polsku Odvětví práce: data Pracovní pozice: Data Engineer (Spark) @ Scalo Směnnost práce fulltime - 40 hours per week Nástup do práce od: IHNED Nabízená mzda: neuvedeno Nabídka přidána: 3. 7. 2025
Pracovní pozice aktivní
Práce Data Engineer (Spark) @ Scalo: Často kladené otázky
👉 V jakém městě se nabízí nabídka práce Data Engineer (Spark) @ Scalo?
Práce je nabízena v lokalitě Warszawa.
👉 Jaká firma nabírá na tuto pozici?
Tato nabídka práce je do firmy Scalo.
Pokud hledáte další podobné nabídky práce, podívejte se na aktuální pracovní místa Warszawa - data