Comment créer un répertoire dans HDFS DFS ?
Comment créer un répertoire dans HDFS DFS ?

Vidéo: Comment créer un répertoire dans HDFS DFS ?

Vidéo: Comment créer un répertoire dans HDFS DFS ?
Vidéo: Hadoop&cie - 03 - Manipulation des fichiers dans HDFS 2024, Peut
Anonim
  1. Créer un répertoire dans HDFS . Utilisation: $ hdfs dfs -mkdir
  2. Lister le contenu d'un répertoire dans HDFS .
  3. Télécharger un fichier sur HDFS .
  4. Télécharger un fichier de HDFS .
  5. Vérifier l'état d'un fichier dans HDFS .
  6. Voir le contenu d'un fichier dans HDFS .
  7. Copier un fichier de la source à la destination dans HDFS .
  8. Copier un fichier depuis/vers le système de fichiers local vers HDFS .

Compte tenu de cela, comment puis-je accéder au répertoire HDFS ?

3 réponses. Il n'y a pas de cd (changer annuaire ) commande dans hdfs système de fichiers. Vous ne pouvez lister que les répertoires et utilisez-les pour atteindre le prochain annuaire . Tu ont pour naviguer manuellement en fournissant le chemin complet à l'aide de la commande ls.

Par la suite, la question est, comment copier un répertoire de HDFS vers local ? Vous pouvez copier les données de hdfs vers le système de fichiers local de deux manières:

  1. bin/hadoop fs -get /hdfs/source/chemin /localfs/destination/chemin.
  2. bin/hadoop fs -copyToLocal /hdfs/source/chemin /localfs/destination/chemin.

Tout simplement, qu'est-ce que le répertoire HDFS ?

Dans Hadoop , l'entrée et la sortie d'un travail sont généralement stockées dans un système de fichiers partagé appelé le Hadoop Système de fichiers distribué ( HDFS ). Comme son nom l'indique, HDFS est un système de fichiers distribué sur les nœuds d'un cluster et qui fournit une interface unifiée aux fichiers distribués.

Qu'est-ce que la commande HDFS DFS ?

Commande HDFS pour déplacer des fichiers de la source à la destination. Cette commander autorise également plusieurs sources, auquel cas la destination doit être un répertoire. Usage: hdfs dfs -mv Commander : hdfs dfs -mv /utilisateur/ hadoop /fichier1 /utilisateur/ hadoop /fichier2.

Conseillé: