HBase - स्थापना
यह अध्याय बताता है कि कैसे HBase स्थापित है और शुरू में कॉन्फ़िगर किया गया है। Java और Hadoop को HBase के साथ आगे बढ़ना आवश्यक है, इसलिए आपको अपने सिस्टम में java और Hadoop को डाउनलोड और इंस्टॉल करना होगा।
पूर्व-स्थापना सेटअप
Hadoop को Linux वातावरण में स्थापित करने से पहले, हमें लिनक्स का उपयोग करना होगा ssh(सुरक्षित कवच)। लिनक्स पर्यावरण की स्थापना के लिए नीचे दिए गए चरणों का पालन करें।
एक उपयोगकर्ता बनाना
सबसे पहले, Hadoop फाइल सिस्टम को Unix फाइल सिस्टम से अलग करने के लिए Hadoop के लिए एक अलग उपयोगकर्ता बनाने की सिफारिश की गई है। उपयोगकर्ता बनाने के लिए नीचे दिए गए चरणों का पालन करें।
- कमांड "su" का उपयोग करके रूट खोलें।
- "Useradd उपयोगकर्ता नाम" कमांड का उपयोग करके रूट खाते से एक उपयोगकर्ता बनाएं।
- अब आप "su उपयोगकर्ता नाम" कमांड का उपयोग करके एक मौजूदा उपयोगकर्ता खाता खोल सकते हैं।
लिनक्स टर्मिनल खोलें और उपयोगकर्ता बनाने के लिए निम्न कमांड टाइप करें।
$ su
password:
# useradd hadoop
# passwd hadoop
New passwd:
Retype new passwd
SSH सेटअप और मुख्य पीढ़ी
SSH सेटअप को प्रारंभ, रोकें और वितरित किए गए डेमन शेल ऑपरेशन जैसे क्लस्टर पर विभिन्न ऑपरेशन करने के लिए आवश्यक है। Hadoop के विभिन्न उपयोगकर्ताओं को प्रमाणित करने के लिए, Hadoop उपयोगकर्ता के लिए सार्वजनिक / निजी कुंजी जोड़ी प्रदान करना और इसे विभिन्न उपयोगकर्ताओं के साथ साझा करना आवश्यक है।
SSH का उपयोग करके एक महत्वपूर्ण मूल्य युग्म उत्पन्न करने के लिए निम्न कमांड का उपयोग किया जाता है। सार्वजनिक कुंजियों की प्रतिलिपि id_rsa.pub को अधिकृत_keys पर भेजें, और मालिक को, क्रमशः अधिकृत_की फ़ाइल में अनुमतियाँ पढ़ें और लिखें।
$ ssh-keygen -t rsa
$ cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
$ chmod 0600 ~/.ssh/authorized_keys
Ssh सत्यापित करें
ssh localhost
जावा को स्थापित करना
Hadoop और HBase के लिए जावा मुख्य शर्त है। सबसे पहले, आपको "जावा-वर्सन" का उपयोग करके अपने सिस्टम में जावा के अस्तित्व को सत्यापित करना चाहिए। जावा संस्करण कमांड का सिंटैक्स नीचे दिया गया है।
$ java -version
यदि सब कुछ ठीक काम करता है, तो यह आपको निम्नलिखित आउटपुट देगा।
java version "1.7.0_71"
Java(TM) SE Runtime Environment (build 1.7.0_71-b13)
Java HotSpot(TM) Client VM (build 25.0-b02, mixed mode)
यदि आपके सिस्टम में जावा स्थापित नहीं है, तो जावा स्थापित करने के लिए नीचे दिए गए चरणों का पालन करें।
चरण 1
निम्नलिखित लिंक ओरेकल जावा पर जाकर java (JDK <नवीनतम संस्करण> - X64.tar.gz) डाउनलोड करें ।
फिर jdk-7u71-linux-x64.tar.gz आपके सिस्टम में डाउनलोड हो जाएगा।
चरण 2
आम तौर पर आपको डाउनलोड फ़ोल्डर में डाउनलोड की गई जावा फ़ाइल मिलेगी। इसे सत्यापित करें और निकालेंjdk-7u71-linux-x64.gz निम्न आदेशों का उपयोग करके फ़ाइल।
$ cd Downloads/
$ ls
jdk-7u71-linux-x64.gz
$ tar zxf jdk-7u71-linux-x64.gz
$ ls
jdk1.7.0_71 jdk-7u71-linux-x64.gz
चरण 3
जावा को सभी उपयोगकर्ताओं के लिए उपलब्ध कराने के लिए, आपको इसे "/ usr / स्थानीय /" स्थान पर ले जाना होगा। रूट खोलें और निम्न कमांड टाइप करें।
$ su
password:
# mv jdk1.7.0_71 /usr/local/
# exit
चरण 4
स्थापित करने के लिए PATH तथा JAVA_HOME चर, निम्नलिखित कमांड को इसमें जोड़ें ~/.bashrc फ़ाइल।
export JAVA_HOME=/usr/local/jdk1.7.0_71
export PATH= $PATH:$JAVA_HOME/bin
अब वर्तमान में चल रहे सिस्टम में सभी परिवर्तनों को लागू करें।
$ source ~/.bashrc
चरण 5
जावा विकल्प को कॉन्फ़िगर करने के लिए निम्नलिखित कमांड का उपयोग करें:
# alternatives --install /usr/bin/java java usr/local/java/bin/java 2
# alternatives --install /usr/bin/javac javac usr/local/java/bin/javac 2
# alternatives --install /usr/bin/jar jar usr/local/java/bin/jar 2
# alternatives --set java usr/local/java/bin/java
# alternatives --set javac usr/local/java/bin/javac
# alternatives --set jar usr/local/java/bin/jar
अब सत्यापित करें java -version ऊपर बताए अनुसार टर्मिनल से कमांड।
Hadoop डाउनलोड करना
जावा को स्थापित करने के बाद, आपको Hadoop को स्थापित करना होगा। सबसे पहले, नीचे दिखाए गए अनुसार "Hadoop संस्करण" कमांड का उपयोग करके Hadoop के अस्तित्व को सत्यापित करें।
hadoop version
यदि सब कुछ ठीक काम करता है, तो यह आपको निम्नलिखित आउटपुट देगा।
Hadoop 2.6.0
Compiled by jenkins on 2014-11-13T21:10Z
Compiled with protoc 2.5.0
From source with checksum 18e43357c8f927c0695f1e9522859d6a
This command was run using
/home/hadoop/hadoop/share/hadoop/common/hadoop-common-2.6.0.jar
यदि आपका सिस्टम Hadoop का पता लगाने में असमर्थ है, तो अपने सिस्टम में Hadoop डाउनलोड करें। ऐसा करने के लिए नीचे दिए गए आदेशों का पालन करें।
निम्नलिखित कमांड का उपयोग करके अपाचे सॉफ्टवेयर फाउंडेशन से हैडऑप-2.6.0 डाउनलोड करें और निकालें ।
$ su
password:
# cd /usr/local
# wget http://mirrors.advancedhosters.com/apache/hadoop/common/hadoop-
2.6.0/hadoop-2.6.0-src.tar.gz
# tar xzf hadoop-2.6.0-src.tar.gz
# mv hadoop-2.6.0/* hadoop/
# exit
Hadoop स्थापित करना
किसी भी आवश्यक मोड में Hadoop स्थापित करें। यहां, हम छद्म वितरित मोड में HBase कार्यक्षमता का प्रदर्शन कर रहे हैं, इसलिए छद्म वितरित मोड में Hadoop स्थापित करें।
स्थापित करने के लिए निम्न चरणों का उपयोग किया जाता है Hadoop 2.4.1।
चरण 1 - Hadoop की स्थापना
आप निम्न आदेशों को जोड़कर Hadoop वातावरण चर सेट कर सकते हैं ~/.bashrc फ़ाइल।
export HADOOP_HOME=/usr/local/hadoop
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin
export HADOOP_INSTALL=$HADOOP_HOME
अब वर्तमान में चल रहे सिस्टम में सभी परिवर्तनों को लागू करें।
$ source ~/.bashrc
चरण 2 - Hadoop कॉन्फ़िगरेशन
आप "HADOOP_HOME / etc / hadoop" स्थान में सभी Hadoop कॉन्फ़िगरेशन फ़ाइलों को पा सकते हैं। आपको अपने Hadoop बुनियादी ढांचे के अनुसार उन कॉन्फ़िगरेशन फ़ाइलों में परिवर्तन करने की आवश्यकता है।
$ cd $HADOOP_HOME/etc/hadoop
जावा में Hadoop कार्यक्रमों को विकसित करने के लिए, आपको जावा पर्यावरण चर को रीसेट करना होगा hadoop-env.sh फ़ाइल को प्रतिस्थापित करके JAVA_HOME आपके सिस्टम में जावा के स्थान के साथ मूल्य।
export JAVA_HOME=/usr/local/jdk1.7.0_71
Hadoop को कॉन्फ़िगर करने के लिए आपको निम्न फ़ाइलों को संपादित करना होगा।
core-site.xml
core-site.xml फ़ाइल में Hadoop उदाहरण के लिए उपयोग की जाने वाली पोर्ट संख्या, फ़ाइल सिस्टम के लिए आवंटित मेमोरी, डेटा संग्रहीत करने के लिए मेमोरी की सीमा और रीड / राइट बफ़र्स के आकार जैसी जानकारी शामिल है।
कोर- site.xml खोलें और <कॉन्फ़िगरेशन> और </ कॉन्फ़िगरेशन> टैग के बीच निम्न गुण जोड़ें।
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>
hdfs-site.xml
hdfs-site.xml फ़ाइल में प्रतिकृति डेटा का मान, नामेनोड पथ और आपके स्थानीय फ़ाइल सिस्टम के डेटाैनॉड पथ जैसे जानकारी शामिल हैं, जहाँ आप Hadoop अवसंरचना को संग्रहीत करना चाहते हैं।
आइए हम निम्नलिखित आंकड़ों को मानते हैं।
dfs.replication (data replication value) = 1
(In the below given path /hadoop/ is the user name.
hadoopinfra/hdfs/namenode is the directory created by hdfs file system.)
namenode path = //home/hadoop/hadoopinfra/hdfs/namenode
(hadoopinfra/hdfs/datanode is the directory created by hdfs file system.)
datanode path = //home/hadoop/hadoopinfra/hdfs/datanode
इस फ़ाइल को खोलें और <कॉन्फ़िगरेशन>, </ कॉन्फ़िगरेशन> टैग के बीच निम्न गुण जोड़ें।
<configuration>
<property>
<name>dfs.replication</name >
<value>1</value>
</property>
<property>
<name>dfs.name.dir</name>
<value>file:///home/hadoop/hadoopinfra/hdfs/namenode</value>
</property>
<property>
<name>dfs.data.dir</name>
<value>file:///home/hadoop/hadoopinfra/hdfs/datanode</value>
</property>
</configuration>
Note: उपरोक्त फ़ाइल में, सभी संपत्ति मान उपयोगकर्ता-परिभाषित हैं और आप अपने Hadoop अवसंरचना के अनुसार परिवर्तन कर सकते हैं।
yarn-site.xml
इस फ़ाइल का उपयोग यार्न को Hadoop में कॉन्फ़िगर करने के लिए किया जाता है। यार्न- site.xml फ़ाइल खोलें और <कॉन्फ़िगरेशन $ gt ;, </ कॉन्फ़िगरेशन $ gt के बीच में निम्नलिखित संपत्ति जोड़ें; इस फ़ाइल में टैग।
<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>
mapred-site.xml
यह फ़ाइल निर्दिष्ट करने के लिए उपयोग की जाती है कि हम किस MapReduce ढांचे का उपयोग कर रहे हैं। डिफ़ॉल्ट रूप से, Hadoop में यार्न-site.xml का टेम्प्लेट होता है। सबसे पहले, फ़ाइल से कॉपी करना आवश्यक हैmapred-site.xml.template सेवा mapred-site.xml निम्न कमांड का उपयोग करके फ़ाइल।
$ cp mapred-site.xml.template mapred-site.xml
खुला हुआ mapred-site.xml <कॉन्फ़िगरेशन> और </ कॉन्फ़िगरेशन> टैग के बीच निम्न गुणों को फ़ाइल करें और जोड़ें।
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
Hadoop स्थापना का सत्यापन
Hadoop स्थापना को सत्यापित करने के लिए निम्न चरणों का उपयोग किया जाता है।
चरण 1 - नाम नोड सेटअप
निम्नानुसार "hdfs namenode -format" कमांड का उपयोग करके नामेनोड सेट करें।
$ cd ~
$ hdfs namenode -format
अपेक्षित परिणाम इस प्रकार है।
10/24/14 21:30:55 INFO namenode.NameNode: STARTUP_MSG:
/************************************************************
STARTUP_MSG: Starting NameNode
STARTUP_MSG: host = localhost/192.168.1.11
STARTUP_MSG: args = [-format]
STARTUP_MSG: version = 2.4.1
...
...
10/24/14 21:30:56 INFO common.Storage: Storage directory
/home/hadoop/hadoopinfra/hdfs/namenode has been successfully formatted.
10/24/14 21:30:56 INFO namenode.NNStorageRetentionManager: Going to
retain 1 images with txid >= 0
10/24/14 21:30:56 INFO util.ExitUtil: Exiting with status 0
10/24/14 21:30:56 INFO namenode.NameNode: SHUTDOWN_MSG:
/************************************************************
SHUTDOWN_MSG: Shutting down NameNode at localhost/192.168.1.11
************************************************************/
चरण 2 - सत्यापन Hadoop dfs
Dfs शुरू करने के लिए निम्न कमांड का उपयोग किया जाता है। इस आदेश को निष्पादित करने से आपका Hadoop फ़ाइल सिस्टम प्रारंभ हो जाएगा।
$ start-dfs.sh
अपेक्षित आउटपुट निम्नानुसार है।
10/24/14 21:37:56
Starting namenodes on [localhost]
localhost: starting namenode, logging to /home/hadoop/hadoop-
2.4.1/logs/hadoop-hadoop-namenode-localhost.out
localhost: starting datanode, logging to /home/hadoop/hadoop-
2.4.1/logs/hadoop-hadoop-datanode-localhost.out
Starting secondary namenodes [0.0.0.0]
चरण 3 - यार्न स्क्रिप्ट का सत्यापन
यार्न स्क्रिप्ट शुरू करने के लिए निम्न कमांड का उपयोग किया जाता है। इस आदेश को निष्पादित करने से आपके यार्न डेमन शुरू हो जाएंगे।
$ start-yarn.sh
अपेक्षित आउटपुट निम्नानुसार है।
starting yarn daemons
starting resourcemanager, logging to /home/hadoop/hadoop-
2.4.1/logs/yarn-hadoop-resourcemanager-localhost.out
localhost: starting nodemanager, logging to /home/hadoop/hadoop-
2.4.1/logs/yarn-hadoop-nodemanager-localhost.out
चरण 4 - ब्राउज़र पर Hadoop तक पहुँचना
Hadoop तक पहुँचने के लिए डिफ़ॉल्ट पोर्ट संख्या 50070 है। अपने ब्राउज़र पर Hadoop सेवाएँ प्राप्त करने के लिए निम्न url का उपयोग करें।
http://localhost:50070
चरण 5 - क्लस्टर के सभी अनुप्रयोगों को सत्यापित करें
क्लस्टर के सभी अनुप्रयोगों तक पहुँचने के लिए डिफ़ॉल्ट पोर्ट संख्या 8088 है। इस सेवा पर जाने के लिए निम्न url का उपयोग करें।
http://localhost:8088/
HBase स्थापित कर रहा है
हम HBase को तीन मोड में से किसी में भी स्थापित कर सकते हैं: स्टैंडअलोन मोड, स्यूडो डिस्ट्रिब्यूटेड मोड और फुल्ली डिस्ट्रिब्यूटेड मोड।
स्टैंडअलोन मोड में HBase स्थापित करना
HBase फ़ॉर्म का नवीनतम स्थिर संस्करण डाउनलोड करें http://www.interior-dsgn.com/apache/hbase/stable/"wget" कमांड का उपयोग करना, और टार "zxvf" कमांड का उपयोग करके इसे निकालना। निम्न आदेश देखें।
$cd usr/local/
$wget http://www.interior-dsgn.com/apache/hbase/stable/hbase-0.98.8-
hadoop2-bin.tar.gz
$tar -zxvf hbase-0.98.8-hadoop2-bin.tar.gz
सुपर उपयोगकर्ता मोड में जाएं और HBase फ़ोल्डर को नीचे दिखाए गए अनुसार / usr / स्थानीय पर ले जाएं।
$su
$password: enter your password here
mv hbase-0.99.1/* Hbase/
स्टैंडअलोन मोड में HBase को कॉन्फ़िगर करना
HBase के साथ आगे बढ़ने से पहले, आपको निम्न फ़ाइलों को संपादित करना होगा और HBase को कॉन्फ़िगर करना होगा।
hbase-env.sh
HBase के लिए जावा होम सेट करें और खोलें hbase-env.shफ़ाइल को गोपनीय फ़ोल्डर से। JAVA_HOME पर्यावरण चर संपादित करें और नीचे दिखाए गए अनुसार अपने वर्तमान JAVA_HOME चर में मौजूदा पथ बदलें।
cd /usr/local/Hbase/conf
gedit hbase-env.sh
यह HBase की env.sh फ़ाइल खोलेगा। अब मौजूदा की जगहJAVA_HOME नीचे दिखाए गए अनुसार अपने वर्तमान मूल्य के साथ मूल्य।
export JAVA_HOME=/usr/lib/jvm/java-1.7.0
HBase-site.xml
यह HBase की मुख्य कॉन्फ़िगरेशन फ़ाइल है। / Usr / लोकल / HBase में HBase होम फोल्डर को खोलकर डेटा निर्देशिका को एक उपयुक्त स्थान पर सेट करें। गोपनीय फ़ोल्डर के अंदर, आपको कई फाइलें मिलेंगी, खोलेंhbase-site.xml फ़ाइल के रूप में नीचे दिखाया गया है।
#cd /usr/local/HBase/
#cd conf
# gedit hbase-site.xml
के अंदर hbase-site.xmlफ़ाइल, आपको <कॉन्फ़िगरेशन> और </ कॉन्फ़िगरेशन> टैग मिलेंगे। उनके भीतर, "hbase.rootdir" नाम के साथ संपत्ति कुंजी के तहत HBase निर्देशिका सेट करें जैसा कि नीचे दिखाया गया है।
<configuration>
//Here you have to set the path where you want HBase to store its files.
<property>
<name>hbase.rootdir</name>
<value>file:/home/hadoop/HBase/HFiles</value>
</property>
//Here you have to set the path where you want HBase to store its built in zookeeper files.
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/home/hadoop/zookeeper</value>
</property>
</configuration>
इसके साथ, HBase स्थापना और कॉन्फ़िगरेशन भाग सफलतापूर्वक पूरा हो गया है। हम उपयोग करके HBase शुरू कर सकते हैंstart-hbase.shHBase के बिन फ़ोल्डर में दी गई स्क्रिप्ट। उसके लिए, HBase होम फोल्डर खोलें और नीचे दिखाए अनुसार HBase स्टार्ट स्क्रिप्ट चलाएँ।
$cd /usr/local/HBase/bin
$./start-hbase.sh
यदि आप सबकुछ ठीक हो जाता है, जब आप HBase स्टार्ट स्क्रिप्ट को चलाने की कोशिश करते हैं, तो यह आपको एक संदेश कहेगा कि HBase शुरू हो गया है।
starting master, logging to /usr/local/HBase/bin/../logs/hbase-tpmaster-localhost.localdomain.out
छद्म-वितरित मोड में HBase स्थापित करना
आइए अब जांचते हैं कि छद्म वितरित मोड में HBase कैसे स्थापित होता है।
HBase को कॉन्फ़िगर करना
HBase के साथ आगे बढ़ने से पहले, अपने स्थानीय सिस्टम या किसी दूरस्थ सिस्टम पर Hadoop और HDFS को कॉन्फ़िगर करें और सुनिश्चित करें कि वे चल रहे हैं। यदि यह चल रहा है तो HBase को रोकें।
hbase-site.xml
निम्नलिखित गुणों को जोड़ने के लिए hbase-site.xml फ़ाइल संपादित करें।
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
यह उल्लेख करेगा कि HBase को किस मोड में चलाया जाना चाहिए। स्थानीय फ़ाइल सिस्टम से एक ही फ़ाइल में, hdfs: //// URI सिंटैक्स का उपयोग करके hbase.rootdir, अपना HDFS उदाहरण पता बदलें। हम 8030 पोर्ट पर लोकलहोस्ट पर एचडीएफएस चला रहे हैं।
<property>
<name>hbase.rootdir</name>
<value>hdfs://localhost:8030/hbase</value>
</property>
HBase शुरू करना
कॉन्फ़िगरेशन समाप्त होने के बाद, HBase होम फ़ोल्डर में ब्राउज़ करें और निम्न कमांड का उपयोग करके HBase को प्रारंभ करें।
$cd /usr/local/HBase
$bin/start-hbase.sh
Note: HBase शुरू करने से पहले, सुनिश्चित करें कि Hadoop चल रहा है।
HDFS में HBase निर्देशिका की जाँच
HBase HDFS में अपनी निर्देशिका बनाता है। बनाई गई निर्देशिका को देखने के लिए, Hadoop bin में ब्राउज़ करें और निम्न कमांड टाइप करें।
$ ./bin/hadoop fs -ls /hbase
यदि सबकुछ ठीक हो जाता है, तो यह आपको निम्न आउटपुट देगा।
Found 7 items
drwxr-xr-x - hbase users 0 2014-06-25 18:58 /hbase/.tmp
drwxr-xr-x - hbase users 0 2014-06-25 21:49 /hbase/WALs
drwxr-xr-x - hbase users 0 2014-06-25 18:48 /hbase/corrupt
drwxr-xr-x - hbase users 0 2014-06-25 18:58 /hbase/data
-rw-r--r-- 3 hbase users 42 2014-06-25 18:41 /hbase/hbase.id
-rw-r--r-- 3 hbase users 7 2014-06-25 18:41 /hbase/hbase.version
drwxr-xr-x - hbase users 0 2014-06-25 21:49 /hbase/oldWALs
मास्टर शुरू करना और रोकना
"Local-master-backup.sh" का उपयोग करके आप 10 सर्वर तक शुरू कर सकते हैं। HBase के होम फ़ोल्डर को खोलें, इसे शुरू करने के लिए मास्टर और निम्नलिखित कमांड को निष्पादित करें।
$ ./bin/local-master-backup.sh 2 4
बैकअप मास्टर को मारने के लिए, आपको इसकी प्रक्रिया आईडी की आवश्यकता होती है, जिसे नाम की फ़ाइल में संग्रहीत किया जाएगा “/tmp/hbase-USER-X-master.pid.” आप निम्न कमांड का उपयोग करके बैकअप मास्टर को मार सकते हैं।
$ cat /tmp/hbase-user-1-master.pid |xargs kill -9
स्टार्टिंग और स्टॉपिंग रीजर्वर्स
आप निम्न आदेश का उपयोग करके एकल सिस्टम से कई क्षेत्र सर्वर चला सकते हैं।
$ .bin/local-regionservers.sh start 2 3
एक क्षेत्र सर्वर को रोकने के लिए, निम्न कमांड का उपयोग करें।
$ .bin/local-regionservers.sh stop 3
HBaseShell प्रारंभ करना
HBase को सफलतापूर्वक स्थापित करने के बाद, आप HBase Shell शुरू कर सकते हैं। नीचे दिए गए चरणों के अनुक्रम हैं जिन्हें HBase शेल शुरू करने के लिए पालन किया जाना है। टर्मिनल खोलें, और सुपर उपयोगकर्ता के रूप में लॉगिन करें।
Hadoop फ़ाइल सिस्टम प्रारंभ करें
Hadoop home sbin फ़ोल्डर के माध्यम से ब्राउज़ करें और Hadoop फ़ाइल सिस्टम को नीचे दिखाए अनुसार शुरू करें।
$cd $HADOOP_HOME/sbin
$start-all.sh
HBase प्रारंभ करें
HBase रूट निर्देशिका बिन फ़ोल्डर के माध्यम से ब्राउज़ करें और HBase प्रारंभ करें।
$cd /usr/local/HBase
$./bin/start-hbase.sh
HBase मास्टर सर्वर प्रारंभ करें
यह वही डायरेक्टरी होगी। इसे नीचे दिखाए अनुसार शुरू करें।
$./bin/local-master-backup.sh start 2 (number signifies specific
server.)
प्रारंभ क्षेत्र
नीचे दिखाए अनुसार क्षेत्र सर्वर शुरू करें।
$./bin/./local-regionservers.sh start 3
HBase शैल प्रारंभ करें
आप निम्न आदेश का उपयोग करके HBase शेल शुरू कर सकते हैं।
$cd bin
$./hbase shell
यह आपको HBase शेल प्रॉम्प्ट देगा जैसा कि नीचे दिखाया गया है।
2014-12-09 14:24:27,526 INFO [main] Configuration.deprecation:
hadoop.native.lib is deprecated. Instead, use io.native.lib.available
HBase Shell; enter 'help<RETURN>' for list of supported commands.
Type "exit<RETURN>" to leave the HBase Shell
Version 0.98.8-hadoop2, r6cfc8d064754251365e070a10a82eb169956d5fe, Fri
Nov 14 18:26:29 PST 2014
hbase(main):001:0>
HBase वेब इंटरफ़ेस
HBase के वेब इंटरफ़ेस तक पहुंचने के लिए, ब्राउज़र में निम्न यूआरएल टाइप करें।
http://localhost:60010
यह इंटरफ़ेस आपके वर्तमान में चल रहे क्षेत्र सर्वर, बैकअप मास्टर्स और HBase टेबल को सूचीबद्ध करता है।
HBase क्षेत्र सर्वर और बैकअप मास्टर्स
HBase टेबल्स
जावा पर्यावरण की स्थापना
हम जावा पुस्तकालयों का उपयोग करके HBase के साथ भी संवाद कर सकते हैं, लेकिन Java API का उपयोग करते हुए HBase तक पहुँचने से पहले आपको उन पुस्तकालयों के लिए classpath निर्धारित करना होगा।
कक्षापथ की स्थापना
प्रोग्रामिंग के साथ आगे बढ़ने से पहले, क्लासपाथ को HBase लाइब्रेरीज़ में सेट करें .bashrcफ़ाइल। खुला हुआ.bashrc नीचे दिखाए गए संपादकों में से किसी में।
$ gedit ~/.bashrc
HBase लाइब्रेरीज़ के लिए classpath सेट करें (HBase में लिबास फ़ोल्डर) जैसा कि नीचे दिखाया गया है।
export CLASSPATH = $CLASSPATH://home/hadoop/hbase/lib/*
यह जावा एपीआई का उपयोग करते हुए HBase तक पहुँचने के दौरान "वर्ग नहीं मिला" अपवाद को रोकने के लिए है।