Skip to main content

Premièrement, le principe

1, HBASE dépend de HDFS pour effectuer un stockage de données de base

2, HBase dépend de MapReduce pour effectuer des calculs diaboliques Matériau

3, HBASE Dépend du zookeper pour coordonner le service

4, la source HBase est écrite par Java, l'installation doit s'appuyer sur JDK


Sélection de la version

.

Ouvrez la version officielle de http://hbase.apache.org/1.2/book.html

Sélection JDK



Choisir Hadoop ]


La version Hadoop est 2.7.5. Ceci. La version sélectionnée par HBASE est 1.2.6

MARDI, INSTALLÉ

1, l'installation de ZOOEPER

Référence HTTP: // www. Cnblogs.com/qingyunzong/p/8619184.html

2, installé Hadoopd

Référence http://www.cnblogs.com/qingyunzong/ p / 8634335.html ]

3, téléchargez le package d'installation

Trouvez le site officiel pour télécharger xBuvez le package d'installation HBASE-1.2 .6-BIN.TAR.GZ, qui vous fournit l'adresse de téléchargement: http://mirrors.hust.edu.cn/apache/hbase/




4, Téléchargement sur le serveur et décompresser au dossier spécifié
5, Modifier Convertir le fichier de configuration

] File Dossier Configuration Dans Conf Dossier du package d'installation


(1) Modifier HBase-Env.sh

[1



(2) Modifier HBase-Site.xml

(3) Modes de modes
]


[hadoop@hadoop1 ~]$ lsapps data hbase-1.2.6-bin.tar.gz hello.txt log zookeeper.out[hadoop@hadoop1 ~]$ tar -zxvf hbase-1.2.6-bin.tar.gz -C apps/ (4) Modification de la maîtrise de veille
Ce fichier n'existe pas, créé d'abord en premier
(5) Modifier

HDFS-Site.xml et Core-Site.xml

Pour obtenir le site Web Hadoo HDFS. XML et Core-Site.xml sont définis sur HBase-1.2. 6 / Conf

[hadoop@hadoop1 conf]$ vi hbase-env.shexport JAVA_HOME=/usr/local/jdk1.8.0_73export HBASE_MANAGES_ZK=false


6, Distribuez le package d'installation HBASE pour d'autres nœuds

Tout d'abord, supprimez le dossier DOCS dans le dossier HBASE avant la distribution,



[hadoop@hadoop1 conf]$ vi hbase-site.xml<configuration> <property> <!-- 指定 hbase 在 HDFS 上存储的路径 --> <name>hbase.rootdir</name> <value>hdfs://myha01/hbase126</value> </property> <property> <!-- 指定 hbase 是分布式的 --> <name>hbase.cluster.distributed</name> <value>true</value> </property> <property> <!-- 指定 zk 的地址,多个用“,“分割 --> <name>hbase.zookeeper.quorum</name> <value>hadoop1:2181,hadoop2:2181,hadoop3:2181,hadoop4:2181</value> </property></configuration>

7, Temps de synchronisation

[hadoop@hadoop1 conf]$ vi regionservers hadoop1hadoop2hadoop3hadoop4 CLUSTRE HBASE Strictement par rapport à HDF, il est donc nécessaire de garder la synchronisation du temps avant le début du cluster et pas plus de 30 secondes ]
8. Configurez les variables environnementales


Tous les serveurs configurés


Les variables environnementales prennent effet immédiatement

[hadoop@hadoop1 conf]$ vi backup-mastershadoop4

[hadoop@hadoop1 conf]$ cd ~/apps/hadoop-2.7.5/etc/hadoop/[hadoop@hadoop1 hadoop]$ cp core-site.xml hdfs-site.xml ~/apps/hbase-1.2.6/conf/


Quatrièmement, démarrez le cluster HBASE
dans l'ordre des yeux
1, démarrez le cluster zooveeper [hadoop@hadoop1 hbase-1.2.6]$ rm -rf docs/
. bouton doit exécuter la commande suivante [hadoop@hadoop1 apps]$ scp -r hbase-1.2.6/ hadoop2:$PWD[hadoop@hadoop1 apps]$ scp -r hbase-1.2.6/ hadoop3:$PWD[hadoop@hadoop1 apps]$ scp -r hbase-1.2.6/ hadoop4:$PWD


2, Démarrer le cluster HDFS et le cluster de fibre
Démarrez le groupe de fibres si vous devez exécuter MapReduce Program, sinon vous n'avez pas besoin de Pour démarrer
commencez l'état de namenode après

[hadoop@hadoop1 apps]$ vi ~/.bashrc #HBaseexport HBASE_HOME=/home/hadoop/apps/hbase-1.2.6export PATH=$PATH:$HBASE_HOME/bin
[hadoop@hadoop1 apps]$ source ~/.bashrc

3, Démarrer Hbase

Pour vous assurer que le cluster de zookeeper et la prise de démarrage normal HDFS HDFS, lancez le début du cluster HBASe: START-HBASE.SH, quel bouton fait cette commande, ce bouton estBouton principal

Voir les journaux de démarrage:

(1) Démarrer Master

(2) En premier dans la touche d'exécution de la commande, puis démarrez le mode

(3) Démarrez le processus principal maître [hadoop@hadoop1 apps]$ zkServer.sh startZooKeeper JMX enabled by defaultUsing config: /home/hadoop/apps/zookeeper-3.4.10/bin/../conf/zoo.cfgStarting zookeeper ... STARTED[hadoop@hadoop1 apps]$



[hadoop@hadoop1 apps]$ start-dfs.shStarting namenodes on [hadoop1 hadoop2]hadoop2: starting namenode, logging to /home/hadoop/apps/hadoop-2.7.5/logs/hadoop-hadoop-namenode-hadoop2.outhadoop1: starting namenode, logging to /home/hadoop/apps/hadoop-2.7.5/logs/hadoop-hadoop-namenode-hadoop1.outhadoop3: starting datanode, logging to /home/hadoop/apps/hadoop-2.7.5/logs/hadoop-hadoop-datanode-hadoop3.outhadoop4: starting datanode, logging to /home/hadoop/apps/hadoop-2.7.5/logs/hadoop-hadoop-datanode-hadoop4.outhadoop2: starting datanode, logging to /home/hadoop/apps/hadoop-2.7.5/logs/hadoop-hadoop-datanode-hadoop2.outhadoop1: starting datanode, logging to /home/hadoop/apps/hadoop-2.7.5/logs/hadoop-hadoop-datanode-hadoop1.outStarting journal nodes [hadoop1 hadoop2 hadoop3]hadoop3: starting journalnode, logging to /home/hadoop/apps/hadoop-2.7.5/logs/hadoop-hadoop-journalnode-hadoop3.outhadoop2: starting journalnode, logging to /home/hadoop/apps/hadoop-2.7.5/logs/hadoop-hadoop-journalnode-hadoop2.outhadoop1: starting journalnode, logging to /home/hadoop/apps/hadoop-2.7.5/logs/hadoop-hadoop-journalnode-hadoop1.outStarting ZK Failover Controllers on NN hosts [hadoop1 hadoop2]hadoop2: starting zkfc, logging to /home/hadoop/apps/hadoop-2.7.5/logs/hadoop-hadoop-zkfc-hadoop2.outhadoop1: starting zkfc, logging to /home/hadoop/apps/hadoop-2.7.5/logs/hadoop-hadoop-zkfc-hadoop1.out[hadoop@hadoop1 apps]$
[hadoop@hadoop1 apps]$ hdfs haadmin -getServiceState nn1standby[hadoop@hadoop1 apps]$ hdfs haadmin -getServiceState nn2active[hadoop@hadoop1 apps]$



[hadoop@hadoop1 conf]$ start-hbase.shstarting master, logging to /home/hadoop/apps/hbase-1.2.6/logs/hbase-hadoop-master-hadoop1.outJava HotSpot(TM) 64-Bit Server VM warning: ignoring option PermSize=128m; support was removed in 8.0Java HotSpot(TM) 64-Bit Server VM warning: ignoring option MaxPermSize=128m; support was removed in 8.0hadoop3: starting regionserver, logging to /home/hadoop/apps/hbase-1.2.6/logs/hbase-hadoop-regionserver-hadoop3.outhadoop4: starting regionserver, logging to /home/hadoop/apps/hbase-1.2.6/logs/hbase-hadoop-regionserver-hadoop4.outhadoop2: starting regionserver, logging to /home/hadoop/apps/hbase-1.2.6/logs/hbase-hadoop-regionserver-hadoop2.outhadoop3: Java HotSpot(TM) 64-Bit Server VM warning: ignoring option PermSize=128m; support was removed in 8.0hadoop3: Java HotSpot(TM) 64-Bit Server VM warning: ignoring option MaxPermSize=128m; support was removed in 8.0hadoop4: Java HotSpot(TM) 64-Bit Server VM warning: ignoring option PermSize=128m; support was removed in 8.0hadoop4: Java HotSpot(TM) 64-Bit Server VM warning: ignoring option MaxPermSize=128m; support was removed in 8.0hadoop2: Java HotSpot(TM) 64-Bit Server VM warning: ignoring option PermSize=128m; support was removed in 8.0hadoop2: Java HotSpot(TM) 64-Bit Server VM warning: ignoring option MaxPermSize=128m; support was removed in 8.0hadoop1: starting regionserver, logging to /home/hadoop/apps/hbase-1.2.6/logs/hbase-hadoop-regionserver-hadoop1.outhadoop4: starting master, logging to /home/hadoop/apps/hbase-1.2.6/logs/hbase-hadoop-master-hadoop4.out[hadoop@hadoop1 conf]$




, la vérification du démarrage est normale
1, vérifie chacune si le processus commence normalement


. Boîte nœud et bouton d'attente Démarrer le processus HMTMAST
Démarrez le processus Hregionerver





La configuration correspondante doit commencer le processus de chaque nœud, comme indiqué sur l'image sur . En visitant la page de navigateur hadoop1 de l'image, Hadoop4 peut être utilisé dans le bouton de sauvegarde 3, Vérification très disponible pour sécher le processus HBASE sur Hadoop1, la surveillance du bouton d'attente est allumée L'interface Hadoop1 Hadoop4 devient un nœud principal 4, s'il existe un bouton de processus correspondant qui n'est pas démarré, démarrez manuellement pour démarrer le processus HMTMAST Démarrer Hregione Process Raver

Sujets

Catégories