今天跑一条统计的SQL出现Caused by: org.apache.hadoop.hive.ql.metadata.HiveException: Hive Runtime Error while processing row (tag=0) {“key”:错误
hive报metadata.HiveException: Hive Runtime Error while processing row (tag=0)错误
报出的异常是说group by数字格式异常,后来核查了一下SQL发现group by后面出现了重复。
hive报metadata.HiveException: Hive Runtime Error while processing row (tag=0)错误
个人觉得报出这样的异常是由于sparksql转化成物理计划时会对所有字段进行新的编码比如:_col0、_col1。由于是同一个,导致字段值误认为是编码

相关文章:

  • 2022-01-05
  • 2021-10-14
  • 2021-08-08
  • 2021-09-19
  • 2022-01-30
  • 2022-12-23
  • 2021-10-08
  • 2021-09-21
猜你喜欢
  • 2022-12-23
  • 2021-10-15
  • 2022-12-23
  • 2022-12-23
  • 2021-08-09
  • 2021-06-05
  • 2021-05-15
相关资源
相似解决方案