当前位置: 首页 > news >正文

潍坊网站制作招聘/最厉害的搜索引擎

潍坊网站制作招聘,最厉害的搜索引擎,公司邮箱名称,群晖wordpress去掉集群安装Spark 这里采用3台机器(节点)作为实例来演示如何搭建Spark集群,其中1台机器(节点)作为Master节点,另外两台机器(节点)作为Slave节点(即作为Worker节点&#xff0…

集群安装Spark

这里采用3台机器(节点)作为实例来演示如何搭建Spark集群,其中1台机器(节点)作为Master节点,另外两台机器(节点)作为Slave节点(即作为Worker节点),主机名分别为Slave1和Slave2。在Master节点机器上,访问Spark官方下载地址,按照如下图下载。
20161205_010
下载完成后,执行如下命令:

sudo tar -zxf spark-2.0.2-bin-without-hadoop.tgz -C /usr/local/
cd /usr/local
sudo mv ./spark-2.0.2-bin-without-hadoop/ ./spark
sudo chown -R hadoop ./spark

配置环境变量

在Mster节点主机的终端中执行如下命令:

vi ~/.bashrc

在.bashrc添加如下配置:

export SPARK_HOME=/usr/local/spark
export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin

执行如下命令使得配置立即生效:

source ~/.bashrc

Spark配置

在Master节点主机上进行如下操作:

配置slaves文件
将 slaves.template 拷贝到 slaves
cd /usr/local/spark/
cp ./conf/slaves.template ./conf/slaves

slaves文件设置Worker节点。编辑slaves内容,把默认内容localhost替换成如下内容:

slave1
slave2
  • 配置spark-env.sh文件
    将 spark-env.sh.template 拷贝到 spark-env.sh

     

    cp ./conf/spark-env.sh.template ./conf/spark-env.sh

    编辑spark-env.sh,添加如下内容:

    export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop/bin/hadoop classpath)
    export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop
    export SPARK_MASTER_IP=192.168.1.104
    

    SPARK_MASTER_IP 指定 Spark 集群 Master 节点的 IP 地址;

配置好后,将Master主机上的/usr/local/spark文件夹复制到各个节点上。在Master主机上执行如下命令:

cd /usr/local/
tar -zcf ~/spark.master.tar.gz ./spark
cd ~#将spark的tar包发送到slave上
scp ./spark.master.tar.gz slave01:/home/hadoop
scp ./spark.master.tar.gz slave02:/home/hadoop

在slave1,slave2节点上分别执行下面同样的操作:

sudo rm -rf /usr/local/spark/
sudo tar -zxf ~/spark.master.tar.gz -C /usr/local
sudo chown -R hadoop /usr/local/spark

启动Spark集群

启动Hadoop集群

启动Spark集群前,要先启动Hadoop集群。在Master节点主机上运行如下命令:

##启动dfs及yarncd /usr/local/hadoop/
sbin/start-all.sh

启动Spark集群

  1. 启动Master节点
    在Master节点主机上运行如下命令:

     

    cd /usr/local/spark/
    sbin/start-master.sh

    在Master节点上运行jps命令,可以看到多了个Master进程:

    15093 Jps
    14343 SecondaryNameNode
    14121 NameNode
    14891 Master
    14509 ResourceManager
    
  2. 启动所有Slave节点,在Master节点主机上运行如下命令:
sbin/start-slaves.sh

分别在slave01、slave02节点上运行jps命令,可以看到多了个Worker进程

37553 DataNode
37684 NodeManager
37876 Worker
37924 Jps
  1. 在浏览器上查看Spark独立集群管理器的集群信息
  2. 在master主机上打开浏览器,访问http://master:8080,如下图:

    20161205_010

关闭Spark集群

  • 关闭Master节点
sbin/stop-master.sh
  • 关闭Worker节点
sbin/stop-slaves.sh
  • 关闭Hadoop集群
cd /usr/local/hadoop/
sbin/stop-all.sh

 

http://www.lbrq.cn/news/1100359.html

相关文章:

  • 施工企业对下结算容易出现的问题/aso优化方案
  • 艺术设计类网站/广东省最新疫情
  • 专业做网站套餐/国际军事新闻最新消息视频
  • 网站改版提交 百度/站长工具外链查询
  • 广告传媒公司的网站应该怎么做/网络推广网站排名
  • 做门户网站开发的技术/网站站点
  • wordpress网站之间互联/网络app推广是什么工作
  • 网站制作与建设书籍/搜索引擎排名google
  • 专做充电器的网站/搜索引擎大全排名
  • it做私活的网站/人民网今日头条
  • 温州做网站建设多少钱/怎么样做推广最有效
  • 自贡网站建设公司/中国关键词
  • 通州网站制作/seo是什么职位简称
  • 推荐武汉手机网站建设/百度获客
  • 西安做网站哪里价格低/品牌宣传有哪些途径
  • 浙江建设信息网港/东莞关键词seo
  • 广州建设网站是什么/搜狗收录入口
  • 百度seo优化技巧/西安优化外
  • 装饰公司315活动网站怎么做/百度极速版下载安装
  • 哪些网站建设公司好/病毒式营销方法
  • 注册了域名怎样做网站/上海网站排名推广
  • 查一下红之易道学做的什么网站/whois域名查询
  • 东营建站/亚洲7号卫星电视
  • 网站开发需要考虑哪些方面/互联网推广平台
  • 做网站用是内网穿透好/一个完整的产品运营方案
  • 服务器做网站配置/热搜榜百度一下你就知道
  • 自己做的网站怎么在百度可以查到/百度统计收费吗
  • 哪个网站做学历认证/seo推广排名
  • 微信产品展示小程序/百度sem优化师
  • 广州专业做网站建设/百度竞价排名一年费用
  • xformers包介绍及代码示例
  • 有关Mysql数据库的总结
  • Git核心功能简要学习
  • 基于Vue与CloudBase AI Toolkit的色觉识别Web应用开发报告:VibeCoding新范式实践
  • API获取及调用(以豆包为例实现图像分析)
  • Vuex 核心知识详解:Vue2Vue3 状态管理指南