【刻字psd源码】【钢化玻璃溯源码】【sdk联运源码出售】idea阅读spark源码_idea阅读spring源码

来源:mit 机械狗源码

1.用Intellij idea 编写Scala程序Spark2.0.0 依赖jar包如何解决
2.Spark第一个程序,阅读k源a阅g源WordCount
3.如何在Mac使用Intellij idea搭建远程Hadoop开发环境

idea阅读spark源码_idea阅读spring源码

用Intellij idea 编写Scala程序Spark2.0.0 依赖jar包如何解决

       åœ¨â€œFile|Project Structure|Libraries”窗体中点击绿色+号,选择“Java”,在弹出的窗体中选择“Spark”的安装目录,定位到Spark\jars目录,点击“OK”,把全部jar文件引入到项目中。网上和目前出版的书中讲解是spark2.0以下版本,采用的是把sparkle核心文件(如:“spark-assembly-1.3.0-hadoop2.4.0.jar”)拷贝到Interllij IDEA安装目录下的Lib目录下,再使用Spark。由于Spark2.1.0已经取消了该文件,因此无法用原先的方法。

Spark第一个程序,码i码WordCount

       1、阅读k源a阅g源环境准备:idea,码i码jdk,阅读k源a阅g源scala,码i码刻字psd源码请参考相关文章

       2、阅读k源a阅g源创建一个新的码i码maven项目

       3、在项目中添加必要的阅读k源a阅g源依赖关系

       4、在项目根目录下创建名为“datas”的码i码文件夹,并在该文件夹中创建两个文本文件“1.txt”和“2.txt”,阅读k源a阅g源分别写入相应的码i码数据

       5、在maven项目文件夹上右击,阅读k源a阅g源选择添加Scala支持

       6、码i码在Java目录下创建一个名为“WordCount.scala”的阅读k源a阅g源钢化玻璃溯源码Scala文件,文件内容如下

       7、执行程序后,结果如下:大功告成!o(╯□╰)o

如何在Mac使用Intellij idea搭建远程Hadoop开发环境

       (1)准备工作

       1)

       安装JDK

       6或者JDK

       7

       2)

       安装scala

       2..x

       (注意版本)

       2)下载Intellij

       IDEA最新版(本文以IntelliJ

       IDEA

       Community

       Edition

       .1.1为例说明,不同版本,界面布局可能不同)

       3)将下载的Intellij

       IDEA解压后,安装scala插件,sdk联运源码出售流程如下:

       依次选择“Configure”–>

       “Plugins”–>

       “Browse

       repositories”,输入scala,然后安装即可

       (2)搭建Spark源码阅读环境(需要联网)

       一种方法是直接依次选择“import

       project”–>

       选择spark所在目录

       –>

       “SBT”,之后intellij会自动识别SBT文件,并下载依赖的外部jar包,整个流程用时非常长,取决于机器的付费群网站源码网络环境(不建议在windows

       下操作,可能遇到各种问题),一般需花费几十分钟到几个小时。注意,下载过程会用到git,因此应该事先安装了git。

       第二种方法是首先在linux操作系统上生成intellij项目文件,然后在intellij

       IDEA中直接通过“Open

       Project”打开项目即可。生鲜线上平台源码在linux上生成intellij项目文件的方法(需要安装git,不需要安装scala,sbt会自动下载)是:在

       spark源代码根目录下,输入sbt/sbt

       gen-idea

       注:如果你在windows下阅读源代码,建议先在linux下生成项目文件,然后导入到windows中的intellij

       IDEA中。

       (3)搭建Spark开发环境

       在intellij

       IDEA中创建scala

       project,并依次选择“File”–>

       “project

       structure”

       –>

       “Libraries”,选择“+”,将spark-hadoop

       对应的包导入,比如导入spark-assembly_2.-0.9.0-incubating-hadoop2.2.0.jar(只需导入该jar

       包,其他不需要),如果IDE没有识别scala

       库,则需要以同样方式将scala库导入。之后开发scala程序即可:

       编写完scala程序后,可以直接在intellij中,以local模式运行,方法如下:

       点击“Run”–>

       “Run

       Configurations”,在弹出的框中对应栏中填写“local”,表示将该参数传递给main函数,如下图所示,之后点击“Run”–>

       “Run”运行程序即可。

       如果想把程序打成jar包,通过命令行的形式运行在spark

       集群中,可以按照以下步骤操作:

       依次选择“File”–>

       “Project

       Structure”

       –>

       “Artifact”,选择“+”–>

       “Jar”

       –>

       “From

       Modules

       with

       dependencies”,选择main函数,并在弹出框中选择输出jar位置,并选择“OK”。

       最后依次选择“Build”–>

       “Build

       Artifact”编译生成jar包。

文章所属分类:娱乐频道,点击进入>>