1、spark对应的环境
http://spark.apache.org/documentation.html
2、找spark和hive版本
http://spark.apache.org/docs/3.0.0/building-spark.html#specifying-the-hadoop-version-and-enabling-yarn
3、找hadoop版本
进入hive官网https://hive.apache.org/downloads.html,可以看到hive对应的hadoop版本
推荐阅读
评论可见,请评论后查看内容,谢谢!!!
发表评论