2020年黑马程序员大数据自学教程Spark从零到精通完整版【共11天视频+笔记+源码】

6.7万
371
2020-07-02 06:02:04
正在缓冲...
712
445
2586
518
从0开始学习大数据分布式计算框架Spark,从入门安装到集群部署、从内核原理到最佳实践,通过知识点 + 案例教学法帮助小白快速掌握Spark的使用。
咨询课程、1对1就业指导、技术进阶提升【直接私信】,领取课程源码+资料,关注黑马程序员公众号,回复:领取资源02
视频选集
(1/227)
自动连播
01_Spark概述_目标
03:10
02_Spark概述_Spark是什么
09:58
03_Spark概述_Spark的特点
06:42
04_Spark概述_Spark的组成
05:46
05_Spark集群搭建_Spark集群结构
07:11
06_Spark集群搭建_Spark集群结构_扩展
07:00
07_Spark环境搭建_下载和解压Spark安装包
08:04
08_Spark环境搭建_配置HistoryServer
08:38
09_Spark集群搭建_分发和启动
03:30
10_Spark集群搭建_高可用配置
11:30
11_Spark集群搭建_第一个案例
06:21
12_Spark入门_代码编写方式
03:56
13_Spark入门_SparkShell本地文件读取
09:14
14_Spark入门_执行过程
04:51
15_Spark入门_读取HDFS上的文件
09:08
16_Spark入门_独立应用编写
12:15
17_Spark入门_独立应用的运行方式
08:41
18_RDD入门_RDD是什么
14:49
19_RDD入门_SparkContext
10:52
20_RDD入门_创建RDD的三种方式
17:15
21_RDD入门_Map算子
07:01
22_RDD入门_FlatMap算子
07:08
23_RDD入门_ReduceByKey算子
08:57
01_深入RDD_课程结构
02:53
02_深入RDD_初始案例_步骤
06:30
03_深入RDD_初始案例_代码编写
14:43
04_深入RDD_问题_如何运行在集群中
11:30
05_深入RDD_问题_分解和容错
10:45
06_深入RDD_定义_出现的背景
06:49
07_深入RDD_定义_RDD的特点
09:19
08_深入RDD_定义_什么叫做弹性分布式数据集
02:39
09_深入RDD_定义_五大属性
07:51
10_RDD算子_分类
07:46
11_RDD算子_转换_回顾
05:18
12_RDD算子_转换_mapPartitions
23:44
13_RDD算子_转换_Filter
05:21
14_RDD算子_转换_Sample
09:09
15_RDD算子_转换_mapValues
04:15
16_RDD算子_转换_集合操作
06:29
17_RDD算子_转换_groupByKey
07:08
18_RDD算子_转换_combineByKey
21:43
19_RDD算子_转换_foldByKey
04:27
20_RDD算子_转换_aggregateByKey
09:17
21_RDD算子_转换_join
04:44
22_RDD算子_转换_排序
07:00
23_RDD算子_转换_重分区
07:00
24_RDD算子_转换_总结
05:02
01_RDD算子_Action_reduce
19:23
02_RDD算子_Action_foreach
02:02
03_RDD算子_Action_countByKey
05:30
04_RDD算子_Action_take
05:48
05_RDD算子_Action_总结
02:22
06_RDD算子_KV类型的支持
09:31
07_RDD算子_数字型的支持
04:34
08_阶段练习_需求介绍和明确步骤
08:26
09_阶段练习_代码编写
16:02
10_阶段练习_总结
02:39
11_RDD的分区和Shuffle_介绍
04:53
12_RDD的分区和Shuffle_查看分区
06:56
13_RDD的分区和Shuffle_创建RDD时指定分区数
04:08
14_RDD的分区和Shuffle_通过算子重分区
07:01
15_RDD的分区和Shuffle_通过其他算子指定分区数
08:04
16_RDD的分区和Shuffle_Shuffle过程扫盲
16:05
17_RDD的缓存_缓存的意义_案例介绍
04:59
18_RDD的缓存_缓存的意义_过程代码
05:37
19_RDD的缓存_缓存的意义_结论
08:40
20_RDD的缓存_缓存的API
08:33
21_RDD的缓存_缓存级别
15:14
22_Checkpoint_意义
15:31
23_Checkpoint_使用
06:05
01_Spark原理_概述和思路
03:33
02_Spark原理_总体介绍_概要
01:26
03_Spark原理_总结介绍_案例编写
10:36
04_Spark原理_总体介绍_集群环境
07:23
05_Spark原理_总体介绍_逻辑执行图
06:44
06_Spark原理_总体介绍_物理执行图
04:00
07_Spark原理_逻辑图_HadoopRDD的生成
10:32
08_Spark原理_逻辑图_MapPartitionsRDD
07:57
09_Spark原理_逻辑图_小结
03:44
10_Spark原理_逻辑图_RDD之间的关系_一对一
07:11
11_Spark原理_逻辑图_RDD之间的关系_多对一
03:40
12_Spark原理_逻辑图_窄依赖_案例
07:51
13_Spark原理_逻辑图_窄依赖_分析
07:14
14_Spark原理_逻辑图_宽依赖_分析
04:35
15_Spark原理_逻辑图_宽窄依赖判断
08:39
16_Spark原理_逻辑图_窄依赖的分类_看源码
07:06
17_Spark原理_逻辑图_窄依赖的分类_分析
06:57
18_Spark原理_逻辑图_总结
04:00
19_Spark原理_物理图_介绍
06:47
20_Spark原理_物理图_Task设计
07:19
21_Spark原理_物理图_Stage划分
04:43
22_Spark原理_物理图_案例总结
09:16
23_Spark原理_运行过程_概念介绍
08:09
24_Spark原理_运行过程_Job和Stage的关系
04:11
25_Spark原理_运行过程_Stage和Task的关系
04:36
26_Spark原理_运行过程_总结和流程
02:51
27_高级特性_闭包_概念
13:31
28_高级特性_闭包_Spark闭包分发
09:57
29_高级特性_累加器
24:30
30_高级特性_广播
18:50
01_SparkSQL是什么_命令式和声明式的区别
08:00
02_SparkSQL是什么_历史和重要性
09:04
03_SparkSQL是什么_适用场景
06:31
04_SparkSQL初体验_命令式案例
16:18
05_SparkSQL初体验_Dataset和DataFrame
05:10
06_SparkSQL初体验_SQL案例
03:22
07_扩展_Catalyst优化器_SparkSQL和RDD的区别
05:42
08_扩展_Catalyst优化器_优化过程
08:27
09_扩展_Catalyst优化器_查看计划
05:52
10_Dataset介绍_Dataset是什么
12:23
11_Dataset介绍_Dataset底层类型
10:14
12_Dataset介绍_将Dataset转为同泛型的RDD
06:48
13_DataFrame介绍_DataFrame是什么
08:40
14_DataFrame介绍_创建_toDF
09:54
15_DataFrame介绍_创建_read
03:46
16_DataFrame介绍_操作
20:43
17_Dataset和DataFrame的区别_区别
14:08
18_Dataset和DataFrame的区别_Row对象
05:24
01_SparkSQL读写_介绍
06:31
02_SparkSQL读写_Reader
12:16
03_SparkSQL读写_Writer
14:56
04_SparkSQL读写_Parquet
16:55
05_SparkSQL读写_分区
13:34
06_SparkSQL读写_JSON
09:22
07_SparkSQL读写_JSON小技巧
07:28
08_SparkSQL读写_Hive_整合
18:04
09_SparkSQL读写_Hive_创建Hive表
09:48
10_SparkSQL读写_Hive_读取Hive表
04:40
11_SparkSQL读写_Hive_SparkSQL创建Hive表
06:12
12_SparkSQL读写_Hive_写入数据_配置
10:28
13_SparkSQL读写_Hive_写入数据_编码和运行
14:40
14_SparkSQL读写_JDBC_MySQL环境准备
08:39
15_SparkSQL读写_JDBC_写入数据
14:34
01_有类型转换_map
17:26
02_有类型转换_transform_
03:33
03_有类型转换_as
07:23
04_有类型转换_filter
02:01
05_有类型转换_groupByKey
06:35
06_有类型转换_split_
06:46
07_有类型转换_orderBy
05:13
08_有类型转换_去重
04:13
09_有类型转换_集合操作
05:23
10_无类型转换_选择
09:19
11_无类型转换_列操作
09:31
12_无类型转换_groupBy
07:44
13_Column对象_创建1
14:26
14_Column对象_创建_有绑定
07:56
15_Column对象_操作_别名和类型
06:06
16_Column对象_操作_API
08:39
17_缺失值处理_什么是缺失值
08:09
18_缺失值处理_null&NaN_读取文件
16:11
19_缺失值处理_null&NaN_处理
11:57
20_缺失值处理_字符串缺失值
12:22
01_聚合操作_groupBy_数据读取
14:23
02_聚合操作_groupBy_聚合操作
15:54
03_聚合操作_多维聚合_需求介绍
09:55
04_聚合操作_多维聚合_编写代码
12:31
05_聚合操作_多维聚合_rollup
11:22
06_聚合操作_多维聚合_rollup案例
07:35
07_聚合操作_多维聚合_cube
08:35
08_聚合操作_多维聚合_cubeSQL
05:14
09_聚合操作_多维聚合_GroupedDataset
04:32
10_连接操作_入门_介绍
08:25
11_连接操作_入门_案例
11:34
12_连接操作_连接类型_cross
10:45
13_连接操作_连接类型_inner
06:52
14_连接操作_连接类型_fullouter
06:53
15_连接操作_连接类型_left
05:23
16_连接操作_连接类型_semi&anti
08:09
17_函数_UDF
12:38
18_函数_窗口1
12:07
19_函数_窗口2
12:08
01_项目分析_业务场景
15:18
02_项目分析_流程分析
10:46
03_工程搭建_创建
05:40
04_工程搭建_读取数据
09:27
05_数据清洗_思路和步骤
06:57
06_数据清洗_创建Trip类
07:04
07_数据清洗_包装Row处理空值
15:42
08_数据清洗_数据转换
16:06
09_数据清洗_异常处理_Either
16:50
10_数据清洗_异常处理_完成逻辑
11:33
11_数据清洗_转换完成
06:32
12_数据清洗_剪除反常数据_统计分布
13:15
13_数据清洗_剪除反常数据
04:13
14_行政区信息_介绍
12:59
15_行政区信息_JSON解析
19:41
16_行政区信息_GeoJSON介绍
06:07
17_行政区信息_JSON解析实现
11:54
18_行政区信息_Geometry实现
06:30
19_行政区统计_功能实现
15:16
20_会话统计_得出结果
17:14
01_SparkStreaming介绍_场景
10:10
02_SparkStreaming介绍_流计算和批计算的区别
07:35
03_SparkStreaming介绍_架构
13:41
04_SparkStreaming介绍_特点
05:26
05_SparkStreaming案例_Socket回顾
10:50
06_SparkStreaming案例_Netcat
04:44
07_SparkStreaming案例_创建工程
07:24
08_SparkStreaming案例_代码编写
10:31
09_SparkStreaming案例_运行
05:56
10_SparkStreaming案例_解释说明
14:09
11_SparkStreaming原理_问题提出
12:03
12_SparkStreaming原理_DStream的有向无环图
15:15
13_SparkStreaming原理_DStream的静态和动态
22:21
14_SparkStreaming原理_Receiver
09:19
15_SparkStreaming原理_容错
08:06
01_Structured_介绍_历史更迭
13:12
02_Structured_介绍_序列化更迭
22:01
03_Structured_介绍_对比
05:10
04_Structured_案例_介绍
05:00
05_Structured_案例_代码编写
11:23
06_Structured_案例_运行和总结
05:40
07_Structured_体系结构_无限扩展的表
18:15
08_Structured_体系结构
23:19
09_Structured_Source_HDFS_案例介绍
11:33
10_Structured_Source_HDFS_生成并上传文件到HDFS
09:24
11_Structured_Source_HDFS_Spark代码
10:31
12_Structured_Source_Kafka_回顾
11:00
13_Structured_Source_Kafka_整合
08:15
14_Structured_Source_Kafka_需求
05:35
15_Structured_Source_Kafka_连接
13:07
16_Structured_Sink_HDFS
15:45
17_Structured_Sink_Kafka
03:07
18_Structured_Sink_Foreach
11:04
19_Structured_Sink_Trigger
15:03
20_Structured_Sink_容错语义
12:00

【通知】B站发实体硬币啦

看视频PK时长,人人有机会赢实体时光币>>
客服
顶部
赛事库 课堂 2021拜年纪