Premièrement, le principe
1, HBASE dépend de HDFS pour effectuer un stockage de données de base
2, HBase dépend de MapReduce pour effectuer des calculs diaboliques Matériau
3, HBASE Dépend du zookeper pour coordonner le service
4, la source HBase est écrite par Java, l'installation doit s'appuyer sur JDK
Sélection de la version
.Ouvrez la version officielle de http://hbase.apache.org/1.2/book.html
Sélection JDK
La version Hadoop est 2.7.5. Ceci. La version sélectionnée par HBASE est 1.2.6
MARDI, INSTALLÉ
1, l'installation de ZOOEPER
2, installé Hadoopd
3, téléchargez le package d'installation
Trouvez le site officiel pour télécharger xBuvez le package d'installation HBASE-1.2 .6-BIN.TAR.GZ, qui vous fournit l'adresse de téléchargement: http://mirrors.hust.edu.cn/apache/hbase/
4, Téléchargement sur le serveur et décompresser au dossier spécifié
5, Modifier Convertir le fichier de configuration
] File Dossier Configuration Dans Conf Dossier du package d'installation
(1) Modifier HBase-Env.sh
[1
(2) Modifier HBase-Site.xml
(3) Modes de modes
]
[hadoop@hadoop1 ~]$ lsapps data hbase-1.2.6-bin.tar.gz hello.txt log zookeeper.out[hadoop@hadoop1 ~]$ tar -zxvf hbase-1.2.6-bin.tar.gz -C apps/
(4) Modification de la maîtrise de veille Ce fichier n'existe pas, créé d'abord en premier
(5) Modifier
HDFS-Site.xml et Core-Site.xml
Pour obtenir le site Web Hadoo HDFS. XML et Core-Site.xml sont définis sur HBase-1.2. 6 / Conf
[hadoop@hadoop1 conf]$ vi hbase-env.shexport JAVA_HOME=/usr/local/jdk1.8.0_73export HBASE_MANAGES_ZK=false
6, Distribuez le package d'installation HBASE pour d'autres nœuds
[hadoop@hadoop1 conf]$ vi hbase-site.xml<configuration> <property> <!-- 指定 hbase 在 HDFS 上存储的路径 --> <name>hbase.rootdir</name> <value>hdfs://myha01/hbase126</value> </property> <property> <!-- 指定 hbase 是分布式的 --> <name>hbase.cluster.distributed</name> <value>true</value> </property> <property> <!-- 指定 zk 的地址,多个用“,“分割 --> <name>hbase.zookeeper.quorum</name> <value>hadoop1:2181,hadoop2:2181,hadoop3:2181,hadoop4:2181</value> </property></configuration>
7, Temps de synchronisation
[hadoop@hadoop1 conf]$ vi regionservers hadoop1hadoop2hadoop3hadoop4
CLUSTRE HBASE Strictement par rapport à HDF, il est donc nécessaire de garder la synchronisation du temps avant le début du cluster et pas plus de 30 secondes ] 8. Configurez les variables environnementales
Tous les serveurs configurés
Les variables environnementales prennent effet immédiatement
[hadoop@hadoop1 conf]$ vi backup-mastershadoop4
[hadoop@hadoop1 conf]$ cd ~/apps/hadoop-2.7.5/etc/hadoop/[hadoop@hadoop1 hadoop]$ cp core-site.xml hdfs-site.xml ~/apps/hbase-1.2.6/conf/
dans l'ordre des yeux
1, démarrez le cluster zooveeper
[hadoop@hadoop1 hbase-1.2.6]$ rm -rf docs/
. bouton doit exécuter la commande suivante
[hadoop@hadoop1 apps]$ scp -r hbase-1.2.6/ hadoop2:$PWD[hadoop@hadoop1 apps]$ scp -r hbase-1.2.6/ hadoop3:$PWD[hadoop@hadoop1 apps]$ scp -r hbase-1.2.6/ hadoop4:$PWD
Démarrez le groupe de fibres si vous devez exécuter MapReduce Program, sinon vous n'avez pas besoin de Pour démarrer
commencez l'état de namenode après
[hadoop@hadoop1 apps]$ vi ~/.bashrc #HBaseexport HBASE_HOME=/home/hadoop/apps/hbase-1.2.6export PATH=$PATH:$HBASE_HOME/bin
[hadoop@hadoop1 apps]$ source ~/.bashrc
3, Démarrer Hbase
Voir les journaux de démarrage:
(1) Démarrer Master
(2) En premier dans la touche d'exécution de la commande, puis démarrez le mode
(3) Démarrez le processus principal maître[hadoop@hadoop1 apps]$ zkServer.sh startZooKeeper JMX enabled by defaultUsing config: /home/hadoop/apps/zookeeper-3.4.10/bin/../conf/zoo.cfgStarting zookeeper ... STARTED[hadoop@hadoop1 apps]$
[hadoop@hadoop1 apps]$ start-dfs.shStarting namenodes on [hadoop1 hadoop2]hadoop2: starting namenode, logging to /home/hadoop/apps/hadoop-2.7.5/logs/hadoop-hadoop-namenode-hadoop2.outhadoop1: starting namenode, logging to /home/hadoop/apps/hadoop-2.7.5/logs/hadoop-hadoop-namenode-hadoop1.outhadoop3: starting datanode, logging to /home/hadoop/apps/hadoop-2.7.5/logs/hadoop-hadoop-datanode-hadoop3.outhadoop4: starting datanode, logging to /home/hadoop/apps/hadoop-2.7.5/logs/hadoop-hadoop-datanode-hadoop4.outhadoop2: starting datanode, logging to /home/hadoop/apps/hadoop-2.7.5/logs/hadoop-hadoop-datanode-hadoop2.outhadoop1: starting datanode, logging to /home/hadoop/apps/hadoop-2.7.5/logs/hadoop-hadoop-datanode-hadoop1.outStarting journal nodes [hadoop1 hadoop2 hadoop3]hadoop3: starting journalnode, logging to /home/hadoop/apps/hadoop-2.7.5/logs/hadoop-hadoop-journalnode-hadoop3.outhadoop2: starting journalnode, logging to /home/hadoop/apps/hadoop-2.7.5/logs/hadoop-hadoop-journalnode-hadoop2.outhadoop1: starting journalnode, logging to /home/hadoop/apps/hadoop-2.7.5/logs/hadoop-hadoop-journalnode-hadoop1.outStarting ZK Failover Controllers on NN hosts [hadoop1 hadoop2]hadoop2: starting zkfc, logging to /home/hadoop/apps/hadoop-2.7.5/logs/hadoop-hadoop-zkfc-hadoop2.outhadoop1: starting zkfc, logging to /home/hadoop/apps/hadoop-2.7.5/logs/hadoop-hadoop-zkfc-hadoop1.out[hadoop@hadoop1 apps]$
[hadoop@hadoop1 apps]$ hdfs haadmin -getServiceState nn1standby[hadoop@hadoop1 apps]$ hdfs haadmin -getServiceState nn2active[hadoop@hadoop1 apps]$
[hadoop@hadoop1 conf]$ start-hbase.shstarting master, logging to /home/hadoop/apps/hbase-1.2.6/logs/hbase-hadoop-master-hadoop1.outJava HotSpot(TM) 64-Bit Server VM warning: ignoring option PermSize=128m; support was removed in 8.0Java HotSpot(TM) 64-Bit Server VM warning: ignoring option MaxPermSize=128m; support was removed in 8.0hadoop3: starting regionserver, logging to /home/hadoop/apps/hbase-1.2.6/logs/hbase-hadoop-regionserver-hadoop3.outhadoop4: starting regionserver, logging to /home/hadoop/apps/hbase-1.2.6/logs/hbase-hadoop-regionserver-hadoop4.outhadoop2: starting regionserver, logging to /home/hadoop/apps/hbase-1.2.6/logs/hbase-hadoop-regionserver-hadoop2.outhadoop3: Java HotSpot(TM) 64-Bit Server VM warning: ignoring option PermSize=128m; support was removed in 8.0hadoop3: Java HotSpot(TM) 64-Bit Server VM warning: ignoring option MaxPermSize=128m; support was removed in 8.0hadoop4: Java HotSpot(TM) 64-Bit Server VM warning: ignoring option PermSize=128m; support was removed in 8.0hadoop4: Java HotSpot(TM) 64-Bit Server VM warning: ignoring option MaxPermSize=128m; support was removed in 8.0hadoop2: Java HotSpot(TM) 64-Bit Server VM warning: ignoring option PermSize=128m; support was removed in 8.0hadoop2: Java HotSpot(TM) 64-Bit Server VM warning: ignoring option MaxPermSize=128m; support was removed in 8.0hadoop1: starting regionserver, logging to /home/hadoop/apps/hbase-1.2.6/logs/hbase-hadoop-regionserver-hadoop1.outhadoop4: starting master, logging to /home/hadoop/apps/hbase-1.2.6/logs/hbase-hadoop-master-hadoop4.out[hadoop@hadoop1 conf]$
1, vérifie chacune si le processus commence normalement
Démarrez le processus Hregionerver
La configuration correspondante doit commencer le processus de chaque nœud, comme indiqué sur l'image sur . En visitant la page de navigateur hadoop1 de l'image, Hadoop4 peut être utilisé dans le bouton de sauvegarde 3, Vérification très disponible pour sécher le processus HBASE sur Hadoop1, la surveillance du bouton d'attente est allumée L'interface Hadoop1 Hadoop4 devient un nœud principal 4, s'il existe un bouton de processus correspondant qui n'est pas démarré, démarrez manuellement pour démarrer le processus HMTMAST Démarrer Hregione Process Raver