Spark 2.0分布式集群環(huán)境搭建
2020-03-20 09:46 作者:Iammyself001 | 我要投稿
Spark安裝前準備
首先需要事先配置好Hadoop的分布式集群環(huán)境。
下載Spark
在Master節(jié)點機器上,下載Spark
http://spark.apache.org/downloads.html

安裝Spark
一、解壓
二、配置環(huán)境變量

配置Spark
一、配置slaves


二、配置spark-env.sh


三、傳到其他slaver節(jié)點上
四、其他結點解壓
啟動Spark
一、啟動Hadoop



二、啟動Spark
1.啟動Master

2.啟動Slave

3.啟動spark-shell

4.圖形查看
在master主機上打開瀏覽器,訪問http://master:8080,如下圖:

但是我的服務器安裝tomcat,發(fā)現(xiàn)8080端口會和其他端口共用,即會產生沖突,其實就是端口占用了。因此我們只需要將spark配置文件中的訪問端口改成其他的就ok了!





安裝Spark問題



如果有建議和看法,可以在文末留言,謝謝。

標簽: