可以基于IDEA+Scala插件
Spark的开发环境,可以基于IDEA+Scala插件,最终将打包得到的jar文件放入Linux处事器上的Spark上运行
如果是Python的小伙伴,可以在Windows上部署spark+hadoop+pycharm开发环境进行本地开发和调测,最后将py文件放入Linux处事器上的Spark运行
#### 先挖坑,后填坑 ####
,温馨提示: 本文由Jm博客推荐,转载请保留链接: https://www.jmwww.net/file/35734.html