论坛元老
- 威望
- 58
- 贡献
- 83
- 热心值
- 0
- 金币
- 14148
- 注册时间
- 2020-8-31
|
课程介绍:
大数据,这是一个言必谈及大数据的时代,到处是大数据论坛,连很多企业都要准备搞大数据,在不学习大数据你就out了。
从Hadoop兴起的短短几年中,计算速度和效率已经不能适应的数据增长,从而出现了更为流行分布式计算框架,Storm和Spark, 分布式计算框架从离线计算到现在的实时计算和内存计算。Spark自从成为Apache顶级项目以来,版本更新越来越快,短短两年来就发布了十个版本,目前最新的版本是1.4,Spark SQL的成熟,DataFrame API出现,以及R API引入Spark,Spark的体系结构也越来越完整。技术更新越来越快,你想跟上时代的步伐,那么跟我来吧,一起学习Spark源代码导读,从代码入手,在实际的项目中能更快的解决问题,更深入的理解Spark。本课程从主要是分析Spark 1.4的源代码。
目标人群:
3年及以上Java开发经验或Scala开发经验,偏向后台开发的Java工程师,以及Java软件架构师,需要懂分布式系统,Hadoop,Hive等经验,具备较强的编码能力。课程对于Spark初学者,Spark开发人员及Spark运维人员都具有比较大的学习价值,特别是对于想从源代码深入研究的人员有更大的帮助,可以快速理解Spark的运行原理。
课程大纲:
第一课 Spark源码概述和开发环境准备
第二课 从WordCount引发的代码入口
第三课 作业提交及执行(Stage,DAGScheduler,TaskScheduler)
第四课 分布式缓存,WEB UI和Standalone
第五课 Spark Streaming
第六课 DStream流数据处理及容错分析
第七课 Spark Streaming的实例应用
第八课 Spark SQL,DataFrame
第九课 SQL解析引擎,优化和执行引擎
第十课 Spark SQL CLi and Thrift JDBC/ODBC server
第十一课 Graph计算框架
第十二课 SparkR和MLlib机器学习所需基础:
java
scala
hadoop
准备环境:
CentOS或Red Hat,eclipse或IntelliJ IDEA, Scala,JDK,Maven,sbt,Hadoop
收获预期:
深入理解和研究Spark及修改Spark代码的能力。
|
|