Hadoop utilise un système de fichiers distribué appelé HDFS et un logiciel de traitement de grands ensembles de données appelé MapReduce. Les fichiers extrêmement volumineux sont divisés en morceaux, généralement de 64 ou 128 Mo chacun. Le logiciel est principalement écrit en Java, avec du code de niveau inférieur écrit en C.
Serveur Apache, Big data, Service, Termes logiciels