本文首先介绍SQL查询操作的用数一般流程,对标SQL查询语句的据查各个关键字,重点针对Pandas和Spark进行介绍,询操主要包括10个常用算子操作。作对 谈到数据,用数必会提及数据库;而提及数据库,据查则一般指代关系型数据库(RMDB),询操操作关系型数据库的作对语言则是SQL(Structured Query Language)。SQL本质上仍然属于一种编程语言,用数并且有着相当悠久的据查历史,不过其语法特性却几乎没怎么变更过,询操从某种意义上讲这也体现了SQL语言的作对过人之处。 在最新TIOBE排行榜中,用数SQL位居第10位 一般而言,据查一句标准的询操SQL语句按照书写顺序通常含有如下关键词: 这是一条SQL查询语句中所能涉及的主要关键字,经过解析器和优化器之后,最后的执行过程则又与之差别很大,执行顺序如下: 曾经,高防服务器个人一度好奇为何不将SQL语句的书写顺序调整为与执行顺序一致,那样更易于理解其中的一些技术原理,但查询资料未果后,就放弃了…… 当然,本文的目的不是介绍SQL查询的执行原理或者优化技巧,而仅仅是对标SQL查询的几个关键字,重点讲解在Pandas和Spark中的实现。 以下按照SQL执行顺序讲解SQL各关键字在Pandas和Spark中的实现,其中Pandas是Python中的数据分析工具包,而Spark作为集Java、Scala、Python和R四种语言的通用分布式计算框架,本文默认以Scala语言进行讲述。 1)from。由于Python和Scala均为面向对象设计语言,所以Pandas和Spark中无需from,执行df.xxx操作的过程本身就蕴含着from的含义。 2)join on。亿华云join on在SQL多表查询中是很重要的一类操作,常用的连接方式有inner join、left join、right join、outer join以及cross join五种,在Pandas和Spark中也都有相应关键字。 Pandas:Pandas实现join操作有两个主要的API:merge和join。其中merge是Pandas的顶层接口(即可直接调用pd.merge方法),也是DataFrame的API,支持丰富的参数设置,主要介绍如下: 上述参数中,可以设置on连接条件的方式主要有3种:即若连接字段为两表共有字段,则可直接用on设置;否则可分别通过left_on和right_on设置;当一个表的连接字段是索引时,可设置left_index为True。 与merge操作类似,join可看做是merge的一个简化版本,默认以索引作为连接字段,站群服务器且仅可通过DataFrame来调用,不是Pandas的顶级接口(即不存在pd.join方法)。 另外,concat也可通过设置axis=1参数实现横向两表的横向拼接,但更常用于纵向的union操作。 Spark:相较于Pandas中有多种实现两个DataFrame连接的方式,Spark中接口则要单一许多,仅有join一个关键字,但也实现了多种重载方法,主要有如下3种用法: 3)where。数据过滤在所有数据处理流程中都是重要的一环,在SQL中用关键字where实现,在Pandas和Spark中也有相应的接口。 Pandas。Pandas中实现数据过滤的方法有多种,个人常用的主要是如下3类: Spark。Spark中实现数据过滤的接口更为单一,有where和filter两个关键字,且二者的底层实现是一致的,所以实际上就只有一种用法。但在具体使用中,where也支持两种语法形式,一种是以字符串形式传入一个类SQL的条件表达式,类似于Pandas中query;另一种是显示的以各列对象执行逻辑判断,得到一组布尔结果,类似于Pandas中loc操作。 4)group by。group by关键字用于分组聚合,实际上包括了分组和聚合两个阶段,由于这一操作属于比较规范化的操作,所以Pandas和Spark中也都提供了同名关键字,不同的是group by之后所接的操作算子不尽相同。 Pandas:Pandas中groupby操作,后面可接多个关键字,常用的其实包括如下4类: Spark:Spark中的groupBy操作,常用的包括如下3类: 5)having。在SQL中,having用于实现对聚合统计后的结果进行过滤筛选,与where的核心区别在于过滤所用的条件是聚合前字段还是聚合后字段。而这在Pandas和Spark中并不存在这一区别,所以与where实现一致。 6)select。选择特定查询结果,详见Pandas vs Spark:获取指定列的N种方式。 7)distinct。distinct在SQL中用于对查询结果去重,在Pandas和Spark中,实现这一操作的函数均为drop_duplicates/dropDuplicates。 8)order by。order by用于根据指定字段排序,在Pandas和Spark中的实现分别如下: Pandas:sort_index和sort_values,其中前者根据索引排序,后者根据传入的列名字段排序,可通过传入ascending参数控制是升序还是降序。 Spark:orderBy和sort,二者也是相同的底层实现,功能完全一致。也是通过传入的字段进行排序,可分别配合asc和desc两个函数实现升序和降序。 9)limit。limit关键字用于限制返回结果条数,这是一个功能相对单一的操作,二者的实现分别如下: Pandas:可分别通过head关键字和iloc访问符来提取指定条数的结果; Spark:直接内置了limit算子,用法更接近SQL中的limit关键字。 10)Union。SQL中还有另一个常用查询关键字Union,在Pandas和Spark中也有相应实现: Pandas:concat和append,其中concat是Pandas 中顶层方法,可用于两个DataFrame纵向拼接,要求列名对齐,而append则相当于一个精简的concat实现,与Python中列表的append方法类似,用于在一个DataFrame尾部追加另一个DataFrame; Spark:Spark中直接模仿SQL语法,分别提供了union和unionAll两个算子实现两个DataFrame的纵向拼接,且含义与SQL中完全类似。 对标SQL标准查询语句中的常用关键字,重点对Pandas和Spark中相应操作进行了介绍,总体来看,两个计算框架均可实现SQL中的所有操作,但Pandas实现的接口更为丰富,传参更为灵活;而Spark则接口更为统一,但一般也支持多种形式的方法重载。另外,Spark中的算子命名与SQL更为贴近,语法习惯也与其极为相似,这对于具有扎实SQL基础的人快速学习Spark来说会更加容易。01 SQL标准查询
02 Pandas和Spark实现SQL对应操作
03 小节