寻找hadoop、hive、spark对应版本
一开始装了hadoop3.2.1+hive3.1.2+spark3.0.0,整个安装虽然有一些些jar包版本冲突问题但都解决了,直到写spark-sql的时候执行,sparkSession.sql("……")的时候报了一个类找不到问题,一眼看过去就觉得应该又是包冲突了,然后,从pom.xml引入的包版本冲突开始解决,最后演变成,解决A问题,发现了B问题,又遇到D问题……一种坑越挖越大的感觉。说白了
·
1、spark对应的环境
http://spark.apache.org/documentation.html
2、找spark和hive版本
3、找hadoop版本
进入hive官网https://hive.apache.org/downloads.html,可以看到hive对应的hadoop版本
更多推荐
所有评论(0)