1、spark对应的环境

http://spark.apache.org/documentation.html

2、找spark和hive版本

http://spark.apache.org/docs/3.0.0/building-spark.html#specifying-the-hadoop-version-and-enabling-yarn

3、找hadoop版本

进入hive官网https://hive.apache.org/downloads.html,可以看到hive对应的hadoop版本

推荐阅读

评论可见,请评论后查看内容,谢谢!!!
 您阅读本篇文章共花了: