Data Engineer (Databricks, AWS, AI) @ Scalo

Polsko

Ta oferta jest dla Ciebie, jeśli:


  • masz min. 5 lat doświadczenia jako Data Engineer,
  • masz wykształcenie wyższe kierunkowe (preferowane PhD z matematyki, informatyki lub pokrewnych),
  • posiadasz doświadczenie w inżynierii danych oraz pracy z ML/AI, w tym w rozwijaniu i wdrażaniu modeli generatywnych (LLM, NLP),
  • masz praktyczne doświadczenie w deploymencie rozwiązań AI na AWS,
  • biegle programujesz w Pythonie oraz znasz Snowflake lub Databricks,
  • potrafisz pracować z dużymi zbiorami danych i analizą statystyczną,
  • znasz konteneryzację (Docker) i orkiestrację (Kubernetes),
  • znasz praktyki CI/CD i narzędzia do wdrażania modeli AI (Git, GitHub),
  • posiadasz certyfikaty AWS (np. AWS Certified Machine Learning Specialty, AWS Solutions Architect) – będzie to dodatkowy atut,
  • wyróżniasz się silnymi umiejętnościami analitycznymi i komunikacyjnymi, proaktywnością i gotowością do ciągłego uczenia się,
  • znasz język angielski na poziomie min. komunikatywnym (B2/C1).

W Scalo zajmujemy się dostarczaniem projektów softwareowych i wspieraniem naszych partnerów w rozwijaniu ich biznesu. Tworzymy oprogramowanie, które umożliwia ludziom dokonywanie zmian, działanie w szybszym tempie oraz osiąganie lepszych rezultatów. Jesteśmy firmą, która wykorzystuje szerokie spektrum usług IT, żeby pomagać klientom. 

Obszary naszego działania to m.in.: doradztwo technologiczne, tworzenie oprogramowania, systemy wbudowane, rozwiązania chmurowe, zarządzanie danymi, dedykowane zespoły developerskie.

Cześć! 

U nas znajdziesz to, czego szukasz - przekonaj się! 

W Scalo czeka na Ciebie:

  • praca 100% remote
  • stawka do 160 zł/h przy B2B w zależności od doświadczenia.

Co dla Ciebie mamy:

  • długofalową współpracę - różnorodne projekty (działamy w ramach Software Services, Embedded Services, Data Services, Cloud Services),
  • możliwość rozwoju kompetencji we współpracy z naszym Center of Excellence,
  • kafeteryjny system benefitów – Motivizer,
  • prywatną opiekę medyczną – Luxmed.

Brzmi interesująco? Aplikuj – czekamy na Twoje CV! 

,[budowa skalowalnych i bezpiecznych aplikacji AI z wykorzystaniem usług chmurowych AWS (m.in. SageMaker, Lambda, EC2),, tworzenie i automatyzacja procesów w Pythonie, w tym wdrożenia i orkiestracja workflow,, rozwój modeli generatywnych AI (w tym LLM, NLP, GenAI) wspierających wyzwania biznesowe i produkty,, projektowanie i utrzymanie zaawansowanych pipeline’ów danych z naciskiem na jakość i automatyzację,, ścisła współpraca z Data Scientistami i interesariuszami przy integracji i optymalizacji rozwiązań AI,, ciągła ewaluacja oraz optymalizacja modeli w oparciu o feedback i metryki jakościowe,, praca 100% zdalna,, stawka do 160 zł/h przy B2B w zależności od doświadczenia. ] Requirements: Spark, Python, DBT, SQL, AWS, Flink, Kafka, Airflow, Databricks, AI Tools: Confluence, GitHub, GitLab, GIT, Jenkins, Agile, Scrum. Additionally: Sport subscription, Training budget, Private healthcare, International projects.

Kategorie

data

  • Podrobné informace o nabídce práce
    Firma: Scalo
    Lokalita: Práce v Polsku
    Odvětví práce: data
    Pracovní pozice: Data Engineer (Databricks, AWS, AI) @ Scalo
    Směnnost práce fulltime - 40 hours per week
    Nástup do práce od: IHNED
    Nabízená mzda: neuvedeno
    Nabídka přidána: 26. 9. 2025
    Pracovní pozice aktivní
Odpovědět na inzerát
    Buďte první, kdo se na danou nabídku práce přihlásí!

Práce Data Engineer (Databricks, AWS, AI) @ Scalo: Často kladené otázky

👉 V jakém městě se nabízí nabídka práce Data Engineer (Databricks, AWS, AI) @ Scalo?

Práce je nabízena v lokalitě Remote, Kraków, Wrocław, Warszawa, Łódź.

👉 Jaká firma nabírá na tuto pozici?

Tato nabídka práce je do firmy Scalo.

0.0921