Data Engineer (Databricks, AWS, AI) @ Scalo

Polsko

Ta oferta jest dla Ciebie, jeśli:

  • masz min. 3–4 lata doświadczenia jako Data Engineer,
  • masz wykształcenie wyższe kierunkowe (preferowane PhD z matematyki, informatyki lub pokrewnych),
  • posiadasz doświadczenie w inżynierii danych oraz pracy z ML/AI, w tym w rozwijaniu i wdrażaniu modeli generatywnych (LLM, NLP),
  • masz praktyczne doświadczenie w deploymencie rozwiązań AI na AWS,
  • biegle programujesz w Pythonie oraz znasz Snowflake lub Databricks,
  • potrafisz pracować z dużymi zbiorami danych i analizą statystyczną,
  • znasz konteneryzację (Docker) i orkiestrację (Kubernetes),
  • znasz praktyki CI/CD i narzędzia do wdrażania modeli AI (Git, GitHub),
  • posiadasz certyfikaty AWS (np. AWS Certified Machine Learning Specialty, AWS Solutions Architect) – będzie to dodatkowy atut,
  • wyróżniasz się silnymi umiejętnościami analitycznymi i komunikacyjnymi, proaktywnością i gotowością do ciągłego uczenia się,
  • znasz język angielski na poziomie min. komunikatywnym (B2/C1).

W Scalo zajmujemy się dostarczaniem projektów softwareowych i wspieraniem naszych partnerów w rozwijaniu ich biznesu. Tworzymy oprogramowanie, które umożliwia ludziom dokonywanie zmian, działanie w szybszym tempie oraz osiąganie lepszych rezultatów. Jesteśmy firmą, która wykorzystuje szerokie spektrum usług IT, żeby pomagać klientom. 

Obszary naszego działania to m.in.: doradztwo technologiczne, tworzenie oprogramowania, systemy wbudowane, rozwiązania chmurowe, zarządzanie danymi, dedykowane zespoły developerskie.

Cześć! 

U nas znajdziesz to, czego szukasz - przekonaj się!

W Scalo czeka na Ciebie 

  • praca 100% zdalna,
  • stawka do 130 zł/h przy B2B w zależności od doświadczenia.

Co dla Ciebie mamy:

  • długofalową współpracę - różnorodne projekty (działamy w ramach Software Services, Embedded Services, Data Services, Cloud Services),
  • możliwość rozwoju kompetencji we współpracy z naszym Center of Excellence,
  • kafeteryjny system benefitów – Motivizer,
  • prywatną opiekę medyczną – Luxmed.

Brzmi interesująco? Aplikuj – czekamy na Twoje CV! 

,[budowa skalowalnych i bezpiecznych aplikacji AI z wykorzystaniem usług chmurowych AWS (m.in. SageMaker, Lambda, EC2),, tworzenie i automatyzacja procesów w Pythonie, w tym wdrożenia i orkiestracja workflow,, rozwój modeli generatywnych AI (w tym LLM, NLP, GenAI) wspierających wyzwania biznesowe i produkty,, projektowanie i utrzymanie zaawansowanych pipeline’ów danych z naciskiem na jakość i automatyzację,, ścisła współpraca z Data Scientistami i interesariuszami przy integracji i optymalizacji rozwiązań AI,, ciągła ewaluacja oraz optymalizacja modeli w oparciu o feedback i metryki jakościowe,] Requirements: AI, ML, NLP, LLM, AWS, Python, Snowflake, Databricks, Docker, Kubernetes, Git, GitHub Additionally: Remote work, English lessons, Benefit platform, Private healthcare, International projects, Platforma edukacyjna.

Kategorie

data

  • Podrobné informace o nabídce práce
    Firma: Scalo
    Lokalita: Práce v Polsku
    Odvětví práce: data
    Pracovní pozice: Data Engineer (Databricks, AWS, AI) @ Scalo
    Směnnost práce fulltime - 40 hours per week
    Nástup do práce od: IHNED
    Nabízená mzda: neuvedeno
    Nabídka přidána: 20. 9. 2025
    Pracovní pozice aktivní
Odpovědět na inzerát
    Buďte první, kdo se na danou nabídku práce přihlásí!

Práce Data Engineer (Databricks, AWS, AI) @ Scalo: Často kladené otázky

👉 V jakém městě se nabízí nabídka práce Data Engineer (Databricks, AWS, AI) @ Scalo?

Práce je nabízena v lokalitě Remote, Wrocław.

👉 Jaká firma nabírá na tuto pozici?

Tato nabídka práce je do firmy Scalo.

0.0951