Spark SQL主要提供了兩個工具來訪問hive中的數據,即CLI和ThriftServer。前提是需要Spark支持Hive,即編譯Spark時需要帶上hive和hive-thriftserver選項,同時需要確保在$SPARK_HOME/conf目錄下有hive-site.xml配置文件(可以 ...
Spark SQL主要提供了兩個工具來訪問hive中的數據,即CLI和ThriftServer。前提是需要Spark支持Hive,即編譯Spark時需要帶上hive和hive-thriftserver選項,同時需要確保在$SPARK_HOME/conf目錄下有hive-site.xml配置文件(可以從hive中拷貝過來)。在該配置文件中主要是配置hive metastore的URI(Spark的CLI和ThriftServer都需要)以及ThriftServer相關配置項(如hive.server2.thrift.bind.host、hive.server2.thrift.port等)。註意如果該台機器上同時運行有Hive ThriftServer和Spark ThriftServer,則hive中的hive.server2.thrift.port配置的埠與spark中的hive.server2.thrift.port配置的埠要不一樣,避免同時啟動時發生埠衝突。
啟動CLI和ThriftServer之前都需要先啟動hive metastore。執行如下命令啟動:
[root@BruceCentOS ~]# nohup hive --service metastore &
成功啟動後,會出現一個RunJar的進程,同時會監聽埠9083(hive metastore的預設埠)。
先來看CLI,通過spark-sql腳本來使用CLI。執行如下命令:
[root@BruceCentOS4 spark]# $SPARK_HOME/bin/spark-sql --master yarn
上述命令執行後會啟動一個yarn client模式的Spark程式,如下圖所示:
同時它會連接到hive metastore,可以在隨後出現的spark-sql>提示符下運行hive sql語句,比如:
其中每輸入並執行一個SQL語句相當於執行了一個Spark的Job,如圖所示:
也就是說執行spark-sql腳本會啟動一個yarn clien模式的Spark Application,而後出現spark-sql>提示符,在提示符下的每個SQL語句都會在Spark中執行一個Job,但是對應的都是同一個Application。這個Application會一直運行,可以持續輸入SQL語句執行Job,直到輸入“quit;”,然後就會退出spark-sql,即Spark Application執行完畢。
另外一種更好地使用Spark SQL的方法是通過ThriftServer,首先需要啟動Spark的ThriftServer,然後通過Spark下的beeline或者自行編寫程式通過JDBC方式使用Spark SQL。
通過如下命令啟動Spark ThriftServer:
[root@BruceCentOS4 spark]# $SPARK_HOME/sbin/start-thriftserver.sh --master yarn
執行上面的命令後,會生成一個SparkSubmit進程,實際上是啟動一個yarn client模式的Spark Application,如下圖所示:
而且它提供一個JDBC/ODBC介面,用戶可以通過JDBC/ODBC介面連接ThriftServer來訪問Spark SQL的數據。具體可以通過Spark提供的beeline或者在程式中使用JDBC連接ThriftServer。例如在啟動Spark ThriftServer後,可以通過如下命令使用beeline來訪問Spark SQL的數據。
[root@BruceCentOS3 spark]# $SPARK_HOME/bin/beeline -n root -u jdbc:hive2://BruceCentOS4.Hadoop:10003
上述beeline連接到了BruceCentOS4上的10003埠,也就是Spark ThriftServer。所有連接到ThriftServer的客戶端beeline或者JDBC程式共用同一個Spark Application,通過beeline或者JDBC程式執行SQL相當於向這個Application提交並執行一個Job。在提示符下輸入“!exit”命令可以退出beeline。
最後,如果要停止ThriftServer(即停止Spark Application),需要執行如下命令:
[root@BruceCentOS4 spark]# $SPARK_HOME/sbin/stop-thriftserver.sh
綜上所述,在Spark SQL的CLI和ThriftServer中,比較推薦使用後者,因為後者更加輕量,只需要啟動一個ThriftServer(對應一個Spark Application)就可以給多個beeline客戶端或者JDBC程式客戶端使用SQL,而前者啟動一個CLI就啟動了一個Spark Application,它只能給一個用戶使用。