Tworzymy potok przetwarzania danych strumieniowych. Część 2
Cześć wszystkim. Udostępniamy tłumaczenie końcowej części artykułu, przygotowanej specjalnie dla studentów kierunku Inżynier Danych. Pierwszą część można znaleźć tutaj. Apache Beam i DataFlow dla potoków czasu rzeczywistego Konfigurowanie Google Cloud Uwaga: użyłem Google Cloud Shell do uruchomienia potoku i opublikowania niestandardowych danych dziennika, ponieważ miałem problemy z uruchomieniem potoku w Pythonie […]