1.下載與hbase對應版本的phoenix http://phoenix.apache.org/download.html 2.解壓 tar -zxvf apache-phoenix-4.14.0-cdh5.14.2-bin.tar.gz tar -zxvf apache-phoenix-4.14 ...
1.下載與hbase對應版本的phoenix http://phoenix.apache.org/download.html 2.解壓 tar -zxvf apache-phoenix-4.14.0-cdh5.14.2-bin.tar.gz 3.複製並分發到每台機器上(phoenix-4.10.0-HBase-1.2-server.jar)Hbase 的lib下 cp phoenix-4.10.0-HBase-1.2-server.jar /opt/cloudera/parcels/CDH-5.14.0-1.cdh5.14.0.p0.24/lib/hbase/lib/ //本機使用cp scp -r phoenix-4.10.0-HBase-1.2-server.jar elasticsearch@hadoop03:$PWD //分別分發給每台機器 4.重啟hbase 5.使用sqlline.py命令行終端 進入bin目錄 cd /opt/cdh/phoenix-4.9.0-cdh5.14.0/bin 1).登錄sqlline.py shell連接到zk伺服器 運行sqlline.py ./sqlline.py df1,df2,df3:2181 //連接多個 需要以','隔開, 也可以在最後‘:2181’添加埠 2)常用命令 !help //查看幫助 !list //列出連接 !tables //顯示表 !columns 表名 //列出所有列 創建表 create table ns1.test(id integer primary key ,name varchar , age integer) ; 插入數據 upsert into ns1.test(id,name,age) values(1,'tom',20) 刪除數據 delete from ns1.test where id = 1 ;
創建二級索引(需要分發給所有機器)
--------------------------------------------------1.修改配置(每台機器的hbase-site.xml 都需要修改)
根據不同的phoenix版本進行不同配置 以下配置 僅針對phoenix版本在4.8 及以上版本 配置使用<property> <name>hbase.regionserver.wal.codec</name> <value>org.apache.hadoop.hbase.regionserver.wal.IndexedWALEditCodec</value> </property> <property> <name>hbase.region.server.rpc.scheduler.factory.class</name> <value>org.apache.hadoop.hbase.ipc.PhoenixRpcSchedulerFactory</value> <description>Factory to create the Phoenix RPC Scheduler that uses separate queues for index and metadata updates</description> </property> <property> <name>hbase.rpc.controllerfactory.class</name> <value>org.apache.hadoop.hbase.ipc.controller.ServerRpcControllerFactory</value> <description>Factory to create the Phoenix RPC Scheduler that uses separate queues for index and metadata updates</description> </property>
----------------------------------------