Data Engineer (Spark) @ Scalo

Polsko

  • masz co najmniej 7 lat doświadczenia w programowaniu,
  • przez minimum 3 lata pracujesz z technologiami Big Data, najlepiej Spark i Scala,
  • znasz podejście Agile/Scrum,
  • korzystasz z narzędzi Continuous Integration – Git, GitHub, Jenkins,
  • swobodnie posługujesz się SQL,
  • komunikujesz się w języku angielskim na poziomie minimum B2,
  • dodatkowym atutem będzie: doświadczenie z technologiami frontendowymi: React, TypeScript, Next.js, Qlik, umiejętność pisania skryptów w Bash, znajomość narzędzia Control-M, znajomość Docker, Kubernetes, AWS S3, Azure, AWS

W Scalo zajmujemy się dostarczaniem projektów softwareowych i wspieraniem naszych partnerów w rozwijaniu ich biznesu. Tworzymy oprogramowanie, które umożliwia ludziom dokonywanie zmian, działanie w szybszym tempie oraz osiąganie lepszych rezultatów. Jesteśmy firmą, która wykorzystuje szerokie spektrum usług IT, żeby pomagać klientom. 

Obszary naszego działania to m.in.: doradztwo technologiczne, tworzenie oprogramowania, systemy wbudowane, rozwiązania chmurowe, zarządzanie danymi, dedykowane zespoły developerskie.

Cześć! 

U nas znajdziesz to, czego szukasz - przekonaj się! 

Co dla Ciebie mamy:


  • długofalową współpracę - różnorodne projekty (działamy w ramach Software Services, Embedded Services, Data Services, Cloud Services),
  • możliwość rozwoju kompetencji we współpracy z naszym Center of Excellence,
  • kafeteryjny system benefitów – Motivizer,
  • prywatną opiekę medyczną – Luxmed.

Brzmi interesująco? Aplikuj – czekamy na Twoje CV! 

,[uczestnictwo w projekcie dot. branży finansowej. Wykorzystywany stos technologiczny: Scala, Apache Spark, SQL/HQL, Airflow, Control-M, Jenkins, GitHub, Hive, Databricks, Azure, AWS S3,, tworzenie kompleksowych procesów ETL z wykorzystaniem Spark/Scala – obejmujących transfer danych do/z Data Lake, walidacje techniczne oraz implementację logiki biznesowej,, dokumentowanie tworzonych rozwiązań w narzędziach takich jak: JIRA, Confluence czy ALM,, weryfikacja jakości dostarczanego rozwiązania – projektowanie i przeprowadzanie testów integracyjnych, zapewniających jego poprawne działanie i zgodność z innymi komponentami,, praca w modelu hybrydowym: 1-2 razy w tygodniu praca z biura w Warszawie,, stawka do 170zł/h przy B2B w zależności od doświadczenia] Requirements: Big Data, Spark, Scala, Continuous integration, GitHub, Jenkins, SQL, Agile, Scrum, React, TypeScript, Next.js, Qlik, Bash, Control-M, Docker, Kubernetes, AWS S3, Azure, AWS Additionally: Remote work, English lessons, Benefit platform, Private healthcare, International projects, Platforma edukacyjna.

Kategorie

data

  • Podrobné informace o nabídce práce
    Firma: Scalo
    Lokalita: Práce v Polsku
    Odvětví práce: data
    Pracovní pozice: Data Engineer (Spark) @ Scalo
    Směnnost práce fulltime - 40 hours per week
    Nástup do práce od: IHNED
    Nabízená mzda: neuvedeno
    Nabídka přidána: 3. 7. 2025
    Pracovní pozice aktivní
Odpovědět na inzerát
    Buďte první, kdo se na danou nabídku práce přihlásí!

Práce Data Engineer (Spark) @ Scalo: Často kladené otázky

👉 V jakém městě se nabízí nabídka práce Data Engineer (Spark) @ Scalo?

Práce je nabízena v lokalitě Warszawa.

👉 Jaká firma nabírá na tuto pozici?

Tato nabídka práce je do firmy Scalo.

Zaujala Vás nabídka práce na pozici Data Engineer (Spark) @ Scalo ve městě Warszawa? Pošlete svůj životopis firmě Scalo ještě dnes.
Pokud hledáte další podobné nabídky práce, podívejte se na aktuální pracovní místa Warszawa - data
0.1913