SparkSQL源码分析系列02-编译环境准备

阿里云国内75折 回扣 微信号:monov8
阿里云国际,腾讯云国际,低至75折。AWS 93折 免费开户实名账号 代冲值 优惠多多 微信号:monov8 飞机:@monov6

本文主要描述一些阅读Spark源码环境的准备工作会涉及到源码编译插件安装等。

1. 克隆代码。

打开IDEA在Git下的Clone中输入 https://github.com/apache/spark克隆代码到本地CheckOut到目标版本Spark3.4
在这里插入图片描述
在这里插入图片描述

2. 安装maven。

版本按照pom文件指定的版本安装在IDEA中配置安装的路径。
在这里插入图片描述
在这里插入图片描述

3. 为IDEA安装 ANTLR 和 Scala 插件

在这里插入图片描述

4. 测试ANTLR的词法语法解析功能

在Spark源码项目中搜索 SqlBaseParser.g4 文件在 singleStatement 上右键找到“Test Rule singleStatement”在底部对话框中输入SQL语句观察解析出的抽象语法树。
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

注意SQL语句一定要大写。

5. 编译源码

由于我们只做源码阅读不做打包所以只需要通过 compile 就行package貌似报错更多不容易打包成功但是 compile 相对容易。多次 compile 尝试直到 build success。
在这里插入图片描述

6. 运行测试类

在…/spark_branch3_4/sql/core/src/test/scala/org/apache/spark/sql目录下打开 SQLQuerySuite 文件在任意一个test模块上右键、运行观察是否正常输出。
在这里插入图片描述
测试案例运行成功。至此代表源码阅读环境准备完毕。

阿里云国内75折 回扣 微信号:monov8
阿里云国际,腾讯云国际,低至75折。AWS 93折 免费开户实名账号 代冲值 优惠多多 微信号:monov8 飞机:@monov6