下图是 是PySpark shell 启动时的样子。
PySpark shell 修改log4j.properties Spark日志调整
如果觉得shell 中输出的日志信息过多而使人分心,可以调整日志的级别来控制输出的信
息量。
你需要在conf 目录下创建一个名为log4j.properties 的文件来管理日志设置。Spark
开发者们已经在Spark 中加入了一个日志设置文件的模版,叫作log4j.properties.template。
要让日志看起来不那么啰嗦,可以先把这个日志设置模版文件复制一份到conf/log4j.
properties 来作为日志设置文件,接下来找到下面这一行:
log4j.rootCategory=INFO, console
然后通过下面的设定降低日志级别,只显示警告及更严重的信息:
log4j.rootCategory=WARN, console
这时再打开shell,你就会看到输出大大减少
PySpark shell 修改log4j.properties Spark日志调整
同样的 scala shell 也适用

相关文章:

  • 2021-06-07
  • 2022-12-23
  • 2021-11-22
  • 2022-12-23
  • 2021-07-30
  • 2021-06-19
  • 2021-09-10
猜你喜欢
  • 2022-12-23
  • 2021-11-03
  • 2021-06-13
  • 2021-05-30
  • 2021-10-01
  • 2021-09-19
  • 2022-12-23
相关资源
相似解决方案