Data engineer gcp/etl

DZIEŃ DOBRY W PRACY
W PKO Banku Polskim dbamy o to, aby każdy dzień w pracy był dla Ciebie dobry.
Tworzymy pozytywną atmosferę, doceniamy efektywną współpracę, szanujemy Twój czas prywatny.
#ZajmijStanowisko:
Data engineer gcp/etl

IT

(Warszawa)

U nas masz na dzień dobry:

  • Umowę o pracę - bo bezpieczeństwo zatrudnienia dla każdego z nas jest superważne.
  • Zdrową równowagę między pracą a życiem osobistym - bo nie samą pracą człowiek żyje.
  • Pełny pakiet benefitów: od kultury, sportu i wypoczynku, po korzystny fundusz emerytalny - bo Ty wiesz najlepiej, na czym Ci zależy.
  • Prywatną opiekę zdrowotną na terenie całej Polski - bo zdrowie jest najważniejsze.
  • Profesjonalne szkolenia - bo liczy się Twój rozwój.

Na co dzień w naszym zespole:

  • budujemy procesy zasilania operacyjnej składnicy danych,
  • projektujemy i realizujemy rozwiązania informatyczne w obszarze zasilania danych,
  • analizujemy dane oraz przygotowujemy dla nich modele logiczne i fizyczne,
  • stroimy zapytania SQL na bazie relacyjnych i hurtowianych w on-prem i na Chmurze GCP,
  • tworzymy przepływy off-linowe oraz strumieniowe danych,
  • przygotowujemy datamarty tematyczne na bazach relacyjnych i kolumnowych,
  • tworzymy koncepcje rozwiązań i implementacje rozwiązań w oparciu o wymagania i potrzeby biznesu,
  • usuwamy incydenty i bierzemy udział w rozwiązywaniu problemów,
  • wspieramy testy i wdrażania zmian w zakresie procesów zasilania danych,
  • pomagamy przy serwisowaniu wdrożonego oprogramowania,
  • tworzymy rozwiązania ładowania danych w Python,
  • pracujemy zgodnie z modelem DevOps.

To stanowisko może być Twoje, jeśli:

  • posiadasz doświadczenia jako develeoper Data Enegineer:
    • w obszarze procesów integracji danych za pomocą narzędzi ETLowych (Informaitica Power Center),
    • w obszarze technologii GCP (Big Query, Pub-Sub, Google Cloud Anthos, Cloud Storage Buckets,
    • w programowaniu w języku Phyton (znajomość jednego z framework Phyton: Flask, Django),
    • w projektowaniu i tworzeniu relacyjnych baz danych (PostgresSQL, Oracle),
  • pracujesz w środowisku chmurowym na Google Cloud Platform (Big Query, Cloud SQL, Kubernetes)
  • znasz środowisko Linux (doświadczenie w pracy z terminalem, podstawowa znajomość skryptów powłoki bash),
  • znasz narzędzie harmonogramujące: Apache Airflow,
  • masz doświadczenie w pracy z dużymi wolumenami danych ~100TB.

Dodatkowym atutem będzie znajomość:
  • Dash, Streamlit,
  • SqlAlchemy,
  • aplikacji uruchamianymi w kontenerach (Kubernetes, Anthos, Docker lub podobne,
  • aplikacji do harmonogramowania zadań ScheduleIN,
  • środowiska SAS,
  • aplikacji do raportowania i budowania dashboardów np. Google Data Studio, SuperSet,
  • narzędzi do monitorwania np. grafana,
  • rozwiązań chmurowych wykorzystywanych w procesach ładowania danych np.. data flow, nifi.

Miejsce pracy: Warszawa - praca hybrydowa

To dobry dzień na aplikowanie! #ZajmijStanowisko.

Co się stanie po kliknięciu "APLIKUJ"?
Jeśli Twoja aplikacja wzbudzi nasze zainteresowanie, rekruter PKO Banku Polskiego zadzwoni do Ciebie, żeby umówić się na rozmowę rekrutacyjną. Do usłyszenia!

Zobacz podobne ogłoszenia o pracę

Powiatowy Urząd Pracy w Opolu

Lokalizacja: opolskie/Opole

pon. - pt. 8-16 Wymagania konieczne: Wykształcenie: wyższe (w tym licencjat) Język: angielski, w mowie - B2 - wyższy średnio zaawansowany, w piśmie - B2 - wyższy średnio zaawansowany...

2024-06-19

AYP Sp. z o.o.

Lokalizacja: śląskie/Sosnowiec

Zakres obowiązków: Umiejętność zarządzania projektem, w tym planowania organizacji i kończenia projektów zgodnie z harmonogramem Samodzielne przygotowanie widoków na potrzeby zasilania...

2024-06-19

PKO Bank Polski

Lokalizacja: mazowieckie/Warszawa

okres próbny IT

2024-05-31