1.IntelliJ-IDEA-Maven-Scala-Spark开发环境搭建
2.ç¨Intellij idea ç¼åScalaç¨åºSpark2.0.0 ä¾èµjarå
å¦ä½è§£å³
3.如何在Mac使用Intellij idea搭建远程Hadoop开发环境
IntelliJ-IDEA-Maven-Scala-Spark开发环境搭建
首先,导入a导你需要从官方网站下载并安装Java Development Kit (JDK)。导入a导确保安装完成后,导入a导检查环境变量是导入a导否配置正确。接着,导入a导转向Scala,导入a导kmp算法python源码从其官方网站下载并安装最新版本。导入a导安装完成后,导入a导你可以在IntelliJ IDEA中寻找Scala插件,导入a导进行安装以支持Scala开发。导入a导
在IntelliJ IDEA中,导入a导启动新项目,导入a导跟随向导创建一个Maven项目。导入a导在向导中,导入a导你需要填写项目的导入a导基本信息,包括项目名称和版本号。下一步,进入项目的pom.xml文件,这里你可以自定义Maven的依赖项和版本,比如添加对Scala的支持。
删除pom.xml中默认生成的黄蓝波指标源码代码,然后动手编写你自己的Hello World程序。这是展示Scala功能的良好起点。记得保存并整理你的代码结构。
编译完成后,你需要定义打包命令,这将生成可部署的项目包。根据你的需求,可以选择合适的打包选项,比如运行`mvn clean package`命令来执行这个过程。
为了测试你的网盘源码zip项目,你可以选择将打包后的文件上传到测试环境,或者在本地运行。这样,你可以验证Scala、Maven和Spark集成环境是否已经配置妥当。
以上步骤由Yezhiwei撰写,他在他的博客 IntelliJ-IDEA-Maven-Scala-Spark开发环境搭建-Yezhiwei的博客 | Yezhiwei Blog 上分享了这些经验。请注意,所有内容均来源于网络,版权归属原作者,星辰奇缘源码修改如遇到问题,请直接与他们联系获取帮助。感谢阅读!
ç¨Intellij idea ç¼åScalaç¨åºSpark2.0.0 ä¾èµjarå å¦ä½è§£å³
å¨âFile|Project Structure|Librariesâçªä½ä¸ç¹å»ç»¿è²+å·ï¼éæ©âJavaâï¼å¨å¼¹åºççªä½ä¸éæ©âSparkâçå®è£ ç®å½ï¼å®ä½å°Spark\jarsç®å½ï¼ç¹å»âOKâï¼æå ¨é¨jaræ件å¼å ¥å°é¡¹ç®ä¸ãç½ä¸åç®ååºçç书ä¸è®²è§£æ¯spark2.0以ä¸çæ¬ï¼éç¨çæ¯æsparkleæ ¸å¿æ件ï¼å¦ï¼âspark-assembly-1.3.0-hadoop2.4.0.jarâï¼æ·è´å°Interllij IDEAå®è£ ç®å½ä¸çLibç®å½ä¸ï¼å使ç¨Sparkãç±äºSpark2.1.0å·²ç»åæ¶äºè¯¥æ件ï¼å æ¤æ æ³ç¨åå çæ¹æ³ã
如何在Mac使用Intellij idea搭建远程Hadoop开发环境
(1)准备工作
1)
安装JDK
6或者JDK
7
2)
安装scala
2..x
(注意版本)
2)下载Intellij
IDEA最新版(本文以IntelliJ
IDEA
Community
Edition
.1.1为例说明,不同版本,界面布局可能不同)
3)将下载的Intellij
IDEA解压后,安装scala插件,流程如下:
依次选择“Configure”–>
“Plugins”–>
“Browse
repositories”,输入scala,然后安装即可
(2)搭建Spark源码阅读环境(需要联网)
一种方法是团购源码程序直接依次选择“import
project”–>
选择spark所在目录
–>
“SBT”,之后intellij会自动识别SBT文件,并下载依赖的外部jar包,整个流程用时非常长,取决于机器的网络环境(不建议在windows
下操作,可能遇到各种问题),一般需花费几十分钟到几个小时。注意,下载过程会用到git,因此应该事先安装了git。
第二种方法是首先在linux操作系统上生成intellij项目文件,然后在intellij
IDEA中直接通过“Open
Project”打开项目即可。在linux上生成intellij项目文件的方法(需要安装git,不需要安装scala,sbt会自动下载)是:在
spark源代码根目录下,输入sbt/sbt
gen-idea
注:如果你在windows下阅读源代码,建议先在linux下生成项目文件,然后导入到windows中的intellij
IDEA中。
(3)搭建Spark开发环境
在intellij
IDEA中创建scala
project,并依次选择“File”–>
“project
structure”
–>
“Libraries”,选择“+”,将spark-hadoop
对应的包导入,比如导入spark-assembly_2.-0.9.0-incubating-hadoop2.2.0.jar(只需导入该jar
包,其他不需要),如果IDE没有识别scala
库,则需要以同样方式将scala库导入。之后开发scala程序即可:
编写完scala程序后,可以直接在intellij中,以local模式运行,方法如下:
点击“Run”–>
“Run
Configurations”,在弹出的框中对应栏中填写“local”,表示将该参数传递给main函数,如下图所示,之后点击“Run”–>
“Run”运行程序即可。
如果想把程序打成jar包,通过命令行的形式运行在spark
集群中,可以按照以下步骤操作:
依次选择“File”–>
“Project
Structure”
–>
“Artifact”,选择“+”–>
“Jar”
–>
“From
Modules
with
dependencies”,选择main函数,并在弹出框中选择输出jar位置,并选择“OK”。
最后依次选择“Build”–>
“Build
Artifact”编译生成jar包。