Kogo szukamy:
Poszukujemy Programisty Python, który dołączy do naszego zespołu i będzie współtworzyć architekturę oraz kod systemów odpowiedzialnych za przetwarzanie, analizę i wizualizację miliardów rekordów danych. Nasze rozwiązania są złożone i modułowe – składają się z wielu współpracujących komponentów, w których każda zmiana może wpływać na liczne obszary aplikacji. Dlatego szczególną wagę przykładamy do projektowania skalowalnych rozwiązań, testowania współdziałania modułów oraz dbałości o jakość i czytelność kodu.
Jeżeli lubisz pracować nad złożonymi, wielomodułowymi systemami i czerpiesz satysfakcję z rozwiązywania ambitnych problemów inżynieryjnych, ZGŁOŚ SIĘ DO NAS! :)
O zespole:
Zespół do którego dołączysz liczy obecnie 4 osoby i pracuje zgodnie z metodyką Agile, w 2-tygodniowych sprintach. Zajmuje się on rozwojem i utrzymaniem produktów gemiusAdReal i gemiusDirectEffect - narzędzi do pomiaru widoczności reklam w internecie i telewizji. Systemy, którymi się opiekuje, przetwarzają surowe dane pochodzące od użytkowników, a następnie prezentują naszym klientom dziesiątki różnych statystyk nie tylko ich własnych reklam, ale również ich konkurencji.
Na co dzień zespół zajmuje się m. in.:
- rozwojem aplikacji webowej dla naszych klientów,
- optymalizowaniem przechowywania zbieranych danych,
- rozwojem, optymalizacją i utrzymaniem systemów przetwarzających duże ilości danych.
Czym się będziesz zajmować:
- projektowaniem, implementacją, testowaniem i wdrażaniem nowych funkcjonalności,
- przeprowadzaniem review kodu,
- precyzowaniem wymagań z Product Ownerem i osobami z innych zespołów,
- rozwijaniem dokumentacji,
- analizą danych prowadzącą do wybrania optymalnego rozwiązania danego problemu.
Czego oczekujemy:
- min. 3 lata komercyjnego doświadczenia w tworzeniu oprogramowania w Pythonie, w tym doświadczenia w przetwarzaniu dużych zbiorów danych,
- znajomości przynajmniej jednego frameworka webowego (Django, FastAPI),
- praktycznej znajomości baz SQL i NoSQL oraz umiejętności doboru technologii do typu danych i obciążeń,
- doświadczenia w pracy z Apache Spark,
- znajomości Apache Airflow lub podobnego narzędzia do orkiestracji procesów,
- doświadczenia w pracy w systemie Linux (Ubuntu) oraz umiejętności pisania podstawowych skryptów w Bashu.
Mile widziane:
- doświadczenie z Apache Iceberg (lub podobnym formatem tabel),
- doświadczenie w pracy z systemem kolejek Celery,
- znajomość baz danych Cassandra, ClickHouse,
- praktyczne doświadczenie z Apache Kafka (kolejkowanie i przesyłanie strumieni danych),
- umiejętność pracy z kontenerami Docker.
Oferujemy:
- pracę w zespole ekspertów nad ciekawymi projektami Big Data,
- możliwość pracy hybrydowej (2 dni praca z biura, 3 dni zdalne),
- elastyczne godziny pracy i dogodną dla Ciebie formę zatrudnienia,
- dofinansowanie do karty medycznej (Medicover) i Multisport,
- wiele ciekawych benefitów, w tym nauka języka angielskiego, masaże w biurze, szkolenia wewnętrzne i zewnętrzne.