Spark进阶之路-日志服务器的配置

                                    作者:尹正杰

版权声明:原创作品,谢绝转载!否则将追究法律责任。

 

 

  如果你还在纠结如果配置Spark独立模式(Standalone)集群,可以参考我之前分享的笔记:https://www.cnblogs.com/yinzhengjie/p/9379045.html 。然而本篇博客的重点是如何配置日志服务器,并将日志落地在hdfs上。

 

 

 

 

一.准备实验环境

1>.集群管理脚本

[yinzhengjie@s101 ~]$ more `which xcall.sh`
#!/bin/bash
#@author :yinzhengjie
#blog:http://www.cnblogs.com/yinzhengjie
#EMAIL:y1053419035@qq.com


#判断用户是否传参
if [ $# -lt 1 ];then
    echo "请输入参数"
    exit
fi

#获取用户输入的命令
cmd=$@

for (( i=101;i<=105;i++ ))
do
    #使终端变绿色 
    tput setaf 2
    echo ============= s$i $cmd ============
    #使终端变回原来的颜色,即白灰色
    tput setaf 7
    #远程执行命令
    ssh s$i $cmd
    #判断命令是否执行成功
    if [ $? == 0 ];then
        echo "命令执行成功"
    fi
done
[yinzhengjie@s101 ~]$ 
[yinzhengjie@s101 ~]$ more `which xcall.sh`

相关文章:

  • 2021-09-30
  • 2021-12-09
  • 2021-10-16
  • 2021-05-29
  • 2021-12-29
  • 2021-10-10
猜你喜欢
  • 2021-11-25
  • 2021-08-16
  • 2021-11-05
  • 2021-12-09
  • 2021-12-09
  • 2022-12-23
相关资源
相似解决方案