Montando un laboratorio de big-data basado en hadoop 2 servicios arrancados

Siguiendo con el post anterior, los servicios que al final hemos arrancado, y la forma de arrancarlos es la siguiente:

Arrancar el filesystem distribuido, el yarn y el servidor de histórico de tares realizadas por yarn
>>>hadoop@lug000:/zoo/hadoop-2.5.0/sbin$ ./start-dfs.sh
>>>hadoop@lug000:/zoo/hadoop-2.5.0/sbin$ ./start-yarn.sh
>>>hadoop@lug000:/zoo/hadoop-2.5.0/sbin$ ./mr-jobhistory-daemon.sh start historyserver

Arrancar el gateway de nfs
>>>hadoop@lug000:/zoo/hadoop-2.5.0/bin$ sudo ./hdfs portmap
>>>hadoop@lug000:/zoo/hadoop-2.5.0/bin$ sudo ./hdfs nfs3

 

UPDATE:

Hemos incorporado hbase al laboratorio

>>>hadoop@lug000:/zoo/hbase-0.98.5-hadoop2$ ./bin/start-hbase.sh

Y además añado el resumen de las consolas web de los distintos servicios

http://lug000.zylk.net:50070 -> hdfs
http://lug000.zylk.net:8088 -> yarn
http://lug000.zylk.net:19888 -> yarn jobhistory
http://lug000.zylk.net:60010 -> hbase



Comprobar que estan los servicios arrancados
>>>hadoop@lug000:/zoo/hadoop-2.5.0/sbin$ sudo jps
4558 NameNode
12804 ResourceManager
13494 Nfs3
13088 JobHistoryServer
4971 SecondaryNameNode
13182 Portmap

00

Más entradas de blog

Añadir comentarios