Serverová část laboratoře pro zpracování velkých dat je vybavena devíti nodovým Hadoop clusterem na platformě Hortonworks (HDP). Zde je možné provádět výpočty nad velkým množstvím dat v řádech desítek až stovek TB.
K dispozici je vedle distribuovaného úložiště HDFS např. nástroj Apache Spark pro ultra rychlé výpočty v operační paměti, sloupcová databáze HBase, výpočetní engine Hive a další nástroje (např.: Sqoop, Kafka, Zeppelin, Shark).
V laboratoři je možné provádět analýzy velkého množství dat ze zařízení IoT či technologií precizního zemědělství, výzkum satelitních dat z dálkového průzkumu země, výzkum machine learning a deep learning algoritmů pro big data, ale i řadu dalších výpočtů.