Data Engineer (Databricks, AWS, AI) @ Scalo
Ta oferta jest dla Ciebie, jeśli:
- masz min. 3–4 lata doświadczenia jako Data Engineer,
- masz wykształcenie wyższe kierunkowe (preferowane PhD z matematyki, informatyki lub pokrewnych),
- posiadasz doświadczenie w inżynierii danych oraz pracy z ML/AI, w tym w rozwijaniu i wdrażaniu modeli generatywnych (LLM, NLP),
- masz praktyczne doświadczenie w deploymencie rozwiązań AI na AWS,
- biegle programujesz w Pythonie oraz znasz Snowflake lub Databricks,
- potrafisz pracować z dużymi zbiorami danych i analizą statystyczną,
- znasz konteneryzację (Docker) i orkiestrację (Kubernetes),
- znasz praktyki CI/CD i narzędzia do wdrażania modeli AI (Git, GitHub),
- posiadasz certyfikaty AWS (np. AWS Certified Machine Learning Specialty, AWS Solutions Architect) – będzie to dodatkowy atut,
- wyróżniasz się silnymi umiejętnościami analitycznymi i komunikacyjnymi, proaktywnością i gotowością do ciągłego uczenia się,
- znasz język angielski na poziomie min. komunikatywnym (B2/C1).
W Scalo zajmujemy się dostarczaniem projektów softwareowych i wspieraniem naszych partnerów w rozwijaniu ich biznesu. Tworzymy oprogramowanie, które umożliwia ludziom dokonywanie zmian, działanie w szybszym tempie oraz osiąganie lepszych rezultatów. Jesteśmy firmą, która wykorzystuje szerokie spektrum usług IT, żeby pomagać klientom.
Obszary naszego działania to m.in.: doradztwo technologiczne, tworzenie oprogramowania, systemy wbudowane, rozwiązania chmurowe, zarządzanie danymi, dedykowane zespoły developerskie.
Cześć!
U nas znajdziesz to, czego szukasz - przekonaj się!
W Scalo czeka na Ciebie
- praca 100% zdalna,
- stawka do 130 zł/h przy B2B w zależności od doświadczenia.
Co dla Ciebie mamy:
- długofalową współpracę - różnorodne projekty (działamy w ramach Software Services, Embedded Services, Data Services, Cloud Services),
- możliwość rozwoju kompetencji we współpracy z naszym Center of Excellence,
- kafeteryjny system benefitów – Motivizer,
- prywatną opiekę medyczną – Luxmed.
Brzmi interesująco? Aplikuj – czekamy na Twoje CV!
,[budowa skalowalnych i bezpiecznych aplikacji AI z wykorzystaniem usług chmurowych AWS (m.in. SageMaker, Lambda, EC2),, tworzenie i automatyzacja procesów w Pythonie, w tym wdrożenia i orkiestracja workflow,, rozwój modeli generatywnych AI (w tym LLM, NLP, GenAI) wspierających wyzwania biznesowe i produkty,, projektowanie i utrzymanie zaawansowanych pipeline’ów danych z naciskiem na jakość i automatyzację,, ścisła współpraca z Data Scientistami i interesariuszami przy integracji i optymalizacji rozwiązań AI,, ciągła ewaluacja oraz optymalizacja modeli w oparciu o feedback i metryki jakościowe,] Requirements: AI, ML, NLP, LLM, AWS, Python, Snowflake, Databricks, Docker, Kubernetes, Git, GitHub Additionally: Remote work, English lessons, Benefit platform, Private healthcare, International projects, Platforma edukacyjna.Kategorie
data
- Podrobné informace o nabídce práce
Firma: Scalo Lokalita: Práce v Polsku Odvětví práce: data Pracovní pozice: Data Engineer (Databricks, AWS, AI) @ Scalo Směnnost práce fulltime - 40 hours per week Nástup do práce od: IHNED Nabízená mzda: neuvedeno Nabídka přidána: 20. 9. 2025
Pracovní pozice aktivní
Práce Data Engineer (Databricks, AWS, AI) @ Scalo: Často kladené otázky
👉 V jakém městě se nabízí nabídka práce Data Engineer (Databricks, AWS, AI) @ Scalo?
Práce je nabízena v lokalitě Remote, Wrocław.
👉 Jaká firma nabírá na tuto pozici?
Tato nabídka práce je do firmy Scalo.