Os mostramos un ejemplo de como hacer funcionar un Cluster Hadoop con ejemplos y aplicaciones prácticas:
Se trata de un clúster Hadoop con la distribución de Hadoop de Hortonworks HDP 2.6.5, la cual es 100% open source e incluye las últimas versiones de Apache Hive, Spark, Kafka, Superset, Zeppelin y Druid. Además hemos instalado la herramienta para OLAP con Big Data Apache Kylin con la que hemos implementado algunas de nuestras demos de Big Data Analytics disponibles en Big Data Demos
El clúster está compuesto de 3 máquinas de 32 Gb de Ram y 8 cores, es decir, un total de 96 Gb de Ram y 24 cores disponibles para ser usados por los usuarios de las formaciones que imparten nuestros amigos de StrateBI