我们专注攀枝花网站设计 攀枝花网站制作 攀枝花网站建设
成都网站建设公司服务热线:400-028-6601

网站建设知识

十年网站开发经验 + 多家企业客户 + 靠谱的建站团队

量身定制 + 运营维护+专业推广+无忧售后,网站问题一站解决

什么是扩展SparkSQL解析

这篇文章主要讲解了“什么是扩展Spark SQL解析”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“什么是扩展Spark SQL解析”吧!

创新互联专注于保康企业网站建设,响应式网站开发,商城网站定制开发。保康网站建设公司,为保康等地区提供建站服务。全流程按需定制网站,专业设计,全程项目跟踪,创新互联专业和态度为您提供的服务

 什么是扩展Spark SQL解析

理论基础

ANTLR

Antlr4是一款开源的语法分析器生成工具,能够根据语法规则文件生成对应的语法分析器。现在很多流行的应用和开源项目里都有使用,比如Hadoop、Hive以及Spark等都在使用ANTLR来做语法分析。

ANTLR 语法识别一般分为二个阶段:

1.词法分析阶段 (lexical analysis)

对应的分析程序叫做 lexer ,负责将符号(token)分组成符号类(token class or token type)

2.解析阶段

根据词法,构建出一棵分析树(parse tree)或叫语法树(syntax tree)

什么是扩展Spark SQL解析

ANTLR的语法文件,非常像电路图,从入口到出口,每个Token就像电阻,连接线就是短路点。

什么是扩展Spark SQL解析

语法文件(*.g4)

上面截图对应的语法文件片段,定义了两部分语法,一部分是显示表达式和赋值,另外一部分是运算和表达式定义。

stat:   expr NEWLINE               # printExpr   |   ID '=' expr NEWLINE         # assign   |   NEWLINE                     # blank   ;  expr:   expr op=('*'|'/') expr     # MulDiv   |   expr op=('+'|'-') expr     # AddSub   |   INT                         # int   |   ID                         # id   |   '(' expr ')'               # parens   ;

接下来,加上定义词法部分,就能形成完整的语法文件。

完整语法文件:

grammar LabeledExpr; // rename to distinguish from Expr.g4  prog:   stat+ ;  stat:   expr NEWLINE               # printExpr   |   ID '=' expr NEWLINE         # assign   |   NEWLINE                     # blank   ;  expr:   expr op=('*'|'/') expr     # MulDiv   |   expr op=('+'|'-') expr     # AddSub   |   INT                         # int   |   ID                         # id   |   '(' expr ')'               # parens   ;  MUL :   '*' ; // assigns token name to '*' used above in grammar DIV :   '/' ; ADD :   '+' ; SUB :   '-' ; ID :   [a-zA-Z]+ ;     // match identifiers INT :   [0-9]+ ;         // match integers NEWLINE:'\r'? '\n' ;     // return newlines to parser (is end-statement signal) WS :   [ \t]+ -> skip ; // toss out whitespace

SqlBase.g4

Spark的语法文件,在sql下的catalyst模块里,如下图:

什么是扩展Spark SQL解析

扩展语法定义

一条正常SQL,例如 Select t.id,t.name from t , 现在我们为其添加一个 JACKY表达式,令其出现在 Select 后面  ,形成一条语句

Select t.id,t.name JACKY(2) from t

我们先看一下正常的语法规则:

什么是扩展Spark SQL解析

现在我们添加一个 jackyExpression

什么是扩展Spark SQL解析

jackExpression 本身的规则就是 JACKY加上括号包裹的一个数字

什么是扩展Spark SQL解析

将 JACKY 添加为token

什么是扩展Spark SQL解析

修改语法文件 如下:

jackyExpression   : JACKY'(' number ')'   //expression   ;  namedExpression   : expression (AS? (identifier | identifierList))?   ;  namedExpressionSeq   : namedExpression (',' namedExpression | jackyExpression )*   ;

扩展逻辑计划

经过上面的修改,就可以测试语法规则,是不是符合预期了,下面是一颗解析树,我们可以看到jackyExpression已经可以正常解析了。

什么是扩展Spark SQL解析

Spark 执行流程

这里引用一张经典的Spark SQL架构图

什么是扩展Spark SQL解析

我们输入的 SQL语句 首先被解析成 Unresolved Logical Pan ,对应的是

什么是扩展Spark SQL解析

给逻辑计划添加遍历方法:

 override def visitJackyExpression(ctx: JackyExpressionContext): String = withOrigin(ctx) {    println("this is astbuilder jacky = "+ctx.number().getText)     this.jacky = ctx.number().getText.toInt     ctx.number().getText }

再处理namedExpression的时候,添加jackyExpression处理

// Expressions.    val expressions = Option(namedExpressionSeq).toSeq     .flatMap(_.namedExpression.asScala)     .map(typedVisit[Expression])   //jackyExpression 处理    if(namedExpressionSeq().jackyExpression()!=null && namedExpressionSeq().jackyExpression().size() > 0){      visitJackyExpression(namedExpressionSeq().jackyExpression().get(0))   }

好了,到这里从逻辑计划处理就完成了,有了逻辑计划,就可以在后续物理计划中添加相应的处理逻辑就可以了(还没研究明白... Orz)。

测试

测试用例

public class Case4 {    public static void main(String[] args) {        CharStream ca = CharStreams.fromString("SELECT `b`.`id`,`b`.`class` JACKY(2) FROM `b` LIMIT 10");        SqlBaseLexer lexer = new SqlBaseLexer(ca);        SqlBaseParser sqlBaseParser = new SqlBaseParser(new CommonTokenStream(lexer));        ParseTree parseTree = sqlBaseParser.singleStatement();         AstBuilder astBuilder = new AstBuilder();        astBuilder.visit(parseTree);        System.out.println(parseTree.toStringTree(sqlBaseParser));        System.out.println(astBuilder.jacky());   } }

执行结果

什么是扩展Spark SQL解析

感谢各位的阅读,以上就是“什么是扩展Spark SQL解析”的内容了,经过本文的学习后,相信大家对什么是扩展Spark SQL解析这一问题有了更深刻的体会,具体使用情况还需要大家实践验证。这里是创新互联,小编将为大家推送更多相关知识点的文章,欢迎关注!


本文名称:什么是扩展SparkSQL解析
当前路径:http://shouzuofang.com/article/jihois.html

其他资讯