Technológie spracovania veľkých dát

Čo sa na tomto predmete
naučíš?

letný
4. ročník
3 kredity
Dáta a umelá inteligencia

V tomto kurze dátového inžinierstva si prejdeš celým cyklom práce s dátami – od návrhu infraštruktúry až po nasadenie a monitorovanie produkčného riešenia. Hneď na úvod si vysvetlíš základné pojmy, úlohy dátového inžiniera, používané nástroje a dátové modely.

Začneš vytvárať dátovú infraštruktúru, pracovať so súbormi, databázami a dátovým jazerom (Delta Lake). Následne sa pustíš do spracovania veľkých dát, či už dávkovo v Apache Spark, alebo v reálnom čase cez Apache Kafka.

V ďalšej fáze sa zameriaš na distribuované strojové učenie – najprv pomocou MLlib, neskôr cez TensorFlow, kde si prakticky overíš, ako škálovať modely na veľké objemy dát.

Keď už budeš mať zvládnuté spracovanie aj analýzu dát, postavíš dátovod (data pipeline), naučíš sa ho nasadiť do produkcie a následne ho aj monitorovať a verzionovať, aby si mal pod kontrolou kvalitu a spoľahlivosť spracovania.

Všetko budeš riešiť prakticky – každý týždeň dostaneš konkrétny príklad, ktorý spracuješ samostatne. Celkovo získaš komplexný prehľad o moderných praktikách dátového inžinierstva v praxi.

PROJEKTY, KTORÉ VYTVORILI
ŠTUDENTI