Qu'est-ce que Apache Hadoop?

Apache Hadoop est le nom d'un ensemble d'algorithmes Big Data, de stockage distribué et de logiciels de traitement distribué créés par Apache Software Foundation. Il est conçu pour prendre en charge les applications de service de données à volume élevé. gérer automatiquement les pannes matérielles sans perte de service.

Hadoop utilise un système de fichiers distribué appelé HDFS et un logiciel de traitement de grands ensembles de données appelé MapReduce. Les fichiers extrêmement volumineux sont divisés en morceaux, généralement de 64 ou 128 Mo chacun. Le logiciel est principalement écrit en Java, avec du code de niveau inférieur écrit en C.

Serveur Apache, Big data, Service, Termes logiciels