Format nazwy i uruchamianie nazwy w Hadoop2.2.0


4

Próbuję zainstalować konfigurację z jednym węzłem, udało mi się do pewnego stopnia, jak pobieranie i rozpakowywanie tar i edytowanie wszystkich plików konfiguracyjnych, ale napotkałem problemy podczas formatowania nazwy.

Błędy to:

14/07/14 02:56:40 WARN fs.FileUtil: Failed to delete file or dir [/home/renu123/yarn/yarn_data/hdfs/namenode/current/seen_txid]: it still exists.
14/07/14 02:56:40 WARN fs.FileUtil: Failed to delete file or dir [/home/renu123/yarn/yarn_data/hdfs/namenode/current/VERSION]: it still exists.
14/07/14 02:56:40 WARN fs.FileUtil: Failed to delete file or dir [/home/renu123/yarn/yarn_data/hdfs/namenode/current/fsimage_0000000000000000000]: it still exists.
14/07/14 02:56:40 WARN fs.FileUtil: Failed to delete file or dir [/home/renu123/yarn/yarn_data/hdfs/namenode/current/fsimage_0000000000000000000.md5]: it still exists.
14/07/14 02:56:40 FATAL namenode.NameNode: Exception in namenode join
java.io.IOException: Cannot remove current directory: /home/renu123/yarn/yarn_data/hdfs/namenode/current
    at org.apache.hadoop.hdfs.server.common.Storage$StorageDirectory.clearDirectory(Storage.java:299)
    at org.apache.hadoop.hdfs.server.namenode.NNStorage.format(NNStorage.java:523)
    at org.apache.hadoop.hdfs.server.namenode.NNStorage.format(NNStorage.java:544)
    at org.apache.hadoop.hdfs.server.namenode.FSImage.format(FSImage.java:147)
    at org.apache.hadoop.hdfs.server.namenode.NameNode.format(NameNode.java:837)
    at org.apache.hadoop.hdfs.server.namenode.NameNode.createNameNode(NameNode.java:1213)
    at org.apache.hadoop.hdfs.server.namenode.NameNode.main(NameNode.java:1320)
14/07/14 02:56:40 INFO util.ExitUtil: Exiting with status 1
14/07/14 02:56:40 INFO namenode.NameNode: SHUTDOWN_MSG: 
/************************************************************
SHUTDOWN_MSG: Shutting down NameNode at ubuntu/127.0.1.1
************************************************************/

Po wyszukaniu w google sformatowałem namenode, przełączając się na konto root jak poniżej:

root@ubuntu:~/yarn/yarn_data/hdfs/namenode# hdfs namenode -format
Re-format filesystem in Storage Directory /home/renu123/yarn/yarn_data/hdfs/namenode ? (Y or N) Y
14/07/14 02:59:30 INFO common.Storage: Storage directory /home/renu123/yarn/yarn_data/hdfs/namenode has been successfully formatted.
14/07/14 02:59:30 INFO namenode.FSImage: Saving image file /home/renu123/yarn/yarn_data/hdfs/namenode/current/fsimage.ckpt_0000000000000000000 using no compression
14/07/14 02:59:30 INFO namenode.FSImage: Image file /home/renu123/yarn/yarn_data/hdfs/namenode/current/fsimage.ckpt_0000000000000000000 of size 196 bytes saved in 0 seconds.
14/07/14 02:59:30 INFO namenode.NNStorageRetentionManager: Going to retain 1 images with txid >= 0
14/07/14 02:59:30 INFO util.ExitUtil: Exiting with status 0
14/07/14 02:59:30 INFO namenode.NameNode: SHUTDOWN_MSG:
/************************************************************
SHUTDOWN_MSG: Shutting down NameNode at ubuntu/127.0.1.1
************************************************************/

Nawet po sformatowaniu nadal widzę katalogi w hdfs/namenodefolderze, tj. Bieżące

Zakładając, że nazwa jest sformatowana, poszedłem dalej i próbowałem uruchomić nazwę przy użyciu polecenia start-dfs.sh, ale nie byłem w stanie.

To jest dziennik wyjęty z usr/local/hadoop/logs:

2014-07-14 02:49:10,478 WARN org.apache.hadoop.hdfs.server.common.Storage: Cannot access storage directory /home/renu123/yarn/yarn_data/hdfs/namenode
2014-07-14 02:49:10,484 INFO org.mortbay.log: Stopped SelectChannelConnector@0.0.0.0:50070
2014-07-14 02:49:10,585 INFO org.apache.hadoop.metrics2.impl.MetricsSystemImpl: Stopping NameNode metrics system...
2014-07-14 02:49:10,585 INFO org.apache.hadoop.metrics2.impl.MetricsSystemImpl: NameNode metrics system stopped.
2014-07-14 02:49:10,586 INFO org.apache.hadoop.metrics2.impl.MetricsSystemImpl: NameNode metrics system shutdown complete.
2014-07-14 02:49:10,587 FATAL org.apache.hadoop.hdfs.server.namenode.NameNode: Exception in namenode join
org.apache.hadoop.hdfs.server.common.InconsistentFSStateException: Directory /home/renu123/yarn/yarn_data/hdfs/namenode is in an inconsistent state: storage directory does not exist or is not accessible.
    at org.apache.hadoop.hdfs.server.namenode.FSImage.recoverStorageDirs(FSImage.java:292)
    at org.apache.hadoop.hdfs.server.namenode.FSImage.recoverTransitionRead(FSImage.java:200)
    at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.loadFSImage(FSNamesystem.java:787)
    at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.loadFromDisk(FSNamesystem.java:568)
    at org.apache.hadoop.hdfs.server.namenode.NameNode.loadNamesystem(NameNode.java:443)
    at org.apache.hadoop.hdfs.server.namenode.NameNode.initialize(NameNode.java:491)
    at org.apache.hadoop.hdfs.server.namenode.NameNode.<init>(NameNode.java:684)
    at org.apache.hadoop.hdfs.server.namenode.NameNode.<init>(NameNode.java:669)
    at org.apache.hadoop.hdfs.server.namenode.NameNode.createNameNode(NameNode.java:1254)
    at org.apache.hadoop.hdfs.server.namenode.NameNode.main(NameNode.java:1320)
2014-07-14 02:49:10,590 INFO org.apache.hadoop.util.ExitUtil: Exiting with status 1
2014-07-14 02:49:10,602 INFO org.apache.hadoop.hdfs.server.namenode.NameNode: SHUTDOWN_MSG: 

Pomóż mi znaleźć rozwiązanie tego problemu.

Moje pliki konfiguracyjne to

core-site.xml

<configuration>
<property>
   <name>fs.default.name</name>

   <value>hdfs://localhost:9000</value>
</property>
</configuration>

yarn-ste.xml

<configuration>
<!-- Site specific YARN configuration properties -->
<property>
   <name>yarn.nodemanager.aux-services</name>

   <value>mapreduce_shuffle</value>
</property>
<property>
   <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>

   <value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
</configuration>

mapred-site.xml

<configuration>
<property>
   <name>mapreduce.framework.name</name>

   <value>yarn</value>
</property>
</configuration>

hdfs-site.xml

<configuration>
<property>
   <name>dfs.replication</name>

   <value>1</value>
 </property>
 <property>
   <name>dfs.namenode.name.dir</name>

   <value>file:/home/renu123/yarn/yarn_data/hdfs/namenode</value>
 </property>
 <property>
   <name>dfs.datanode.data.dir</name>

   <value>file:/home/renu123/yarn/yarn_data/hdfs/datanode</value>
 </property>
</configuration>

Czy możesz zaktualizować swoje pliki konfiguracyjne? Wygląda na to, że twój menedżer zasobów nie powoduje awarii węzła
eliasah

Jeśli nie możesz edytować plików konfiguracyjnych, jak skonfigurowałeś klaster?
eliasah

Powiedziałem, że nie jestem w stanie edytować pytania za pomocą plików konfiguracyjnych. Ale Parto zredagowało moje pytanie w dobrym formacie. teraz możesz zobaczyć dokładne pytanie, czy znasz rozwiązanie, które plz zapewniają dzięki
Renukeswar

Wreszcie jestem w stanie dokończyć instalację hadoopa na moim komputerze, błąd, który zrobiłem, to format nazwy pliku jest niepoprawny. Rozwiązaniem jest udzielenie odpowiednich uprawnień do pliku folderowi instalacji hadoopa. Polecenie użyte do tego to sudo chown -R hduser: hadoop hadoop
Renukeswar,

To bardzo częsty problem. Awarie Hadoop są zwykle związane z uprawnieniami i plikami konfiguracyjnymi.
eliasah

Odpowiedzi:


0

Jeśli wykonałeś kroki instalacji podane w linku (@Vikas Hardia - Link działa, po prostu zignoruj ​​dołączone '- może być literówka :) - https://www.digitalocean.com/community/tutorials/how-to-install -hadoop-on-ubuntu-13-10 )

Następnie poniżej powinno działać dla Ciebie.

Rozwiązanie

sudo chown -R hduser:hadoop /usr/local/hadoop
sudo chown -R hduser:hadoop /usr/local/hadoop_store

To zadziałało dla mnie, jeśli jakikolwiek problem po prostu upewnij się, że poprawnie zmieniłeś .bashrcplik dla użytkownika hadoop .


0

problem może wynikać z użytego słowa kluczowego pliku

<configuration>
<property>
   <name>dfs.replication</name>

   <value>1</value>
 </property>
 <property>
   <name>dfs.namenode.name.dir</name>

   **<value>file:/home/renu123/yarn/yarn_data/hdfs/namenode</value>**
 </property>
 <property>
   <name>dfs.datanode.data.dir</name>

   **<value>file:/home/renu123/yarn/yarn_data/hdfs/datanode</value>**
 </property>
</configuration>

może być konieczne usunięcie tego „pliku:” i określenie jak poniżej

/home/renu123/yarn/yarn_data/hdfs/namenode

i

/home/renu123/yarn/yarn_data/hdfs/datanode

Dzięki za odpowiedź, ale to nie zadziałało. Usunąłem plik: z pliku konfiguracyjnego i próbowałem uruchomić ten sam błąd, który dostałem.
Renukeswar,

Postępowałem zgodnie z adresem „ digitalocean.com/community/tutorials/… ”, aby skonfigurować środowisko Hadoop
Renukeswar,

@Renukeswar link nie działa i musi to być kwestia praw, jeśli nie z pliku
Vikas Hardia

0

@Renukeshwar, miałem ten sam problem. Jeśli spojrzysz na te linie w dziennikach błędów,

java.io.IOException:Cannot remove directory:/home/renu123/yarn/yarn_data/hdfs/namenode/current
java.io.IOException: Cannot create directory: /home/renu123/yarn/yarn_data/hdfs/namenode/current

Dzieje się tak, gdy bieżący użytkownik nie ma dostępu do odczytu i zapisu do tego folderu.

Rozwiązanie

Po zmianie wszystkich konfiguracji we wszystkich plikach .xml wpisz to w terminalu. Daje to użytkownikowi hdusergrupy hadoopdostęp do folderu.

sudo chown -R hduser:hadoop /usr/local/hadoop

Uwaga: Aby sprawdzić, do którego użytkownika należy grupa, wpisz groups your-username-here

Edycja: może być konieczne usunięcie katalogów tmp.

sudo rm -R /path-to-your-common-storage

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.