本章从体系结构概念转向使用战术工具,将使用这些工具来操纵DataFrame及其中的数据。 本章专门介绍DataFrame的聚合,窗口函数和连接(在后续章节介绍)的基本操作。
DataFrame由记录(record)组成,record是Row类型(与一个table中的行相似)。一条record由多列组成,列标记可以在Dataset中每个单独的记录上执行的计算表达式。模式定义了DataFrame列的名以及列的数据类型,DataFrame的分区定义了DataFrame以及Dataset在集群上的物理分布,而划分模式定义了partition的分配方式,可以自定义分区,也可以采取随机分配的方式。
下面为创建一个DataFrame的示例:
Scala
val df = spark.read.format("json").load("/data/flight-data/json/2015-summary.json")
Python
df = spark.read.format("json").load("/data/flight-data/json/2015-summary.json")
上面已经介绍了DataFrame有很多列,而模式定义了列名和数据类型,可以用下面方法查看当前DataFrame的模式:
df.printSchema()
Schema(模式)定义了DataFrame的列名和数据类型。可以由数据源来定义模式(称为读取时模式,schema-on-read),也可以用户显式地定义。
实际应用场景决定了定义schema的方式。当使用即席查询时,使用读时模式即可(schema-on-read)(尽管在处理CSV或JSON等纯文本文件格式可能会有点慢)。但是,这也可能导致精度问题,例如在读取文件时将long类型错误地设置为整数。当使用Spark进行实现生产级别ETL(Extract提取,Trancation转换,Load加载)时,最好采用显式自定义Schema,尤其是在处理CSV和JSON之类无类型数据源时,因为模式推断方法会根据所读取的数据类型而变化。
从第4章中看到的简单文件开始,让以行分隔的JSON半结构化性质定义结构。这是来自美国运输局统计数据的航班数据:
Scala
spark.read.format("json").load("/data/flight-data/json/2015-summary.json").schema
// Scala returns the following:
org.apache.spark.sql.types.StructType = ...
StructType(StructField(DEST_COUNTRY_NAME,StringType,true),
StructField(ORIGIN_COUNTRY_NAME,StringType,true),
StructField(count,LongType,true))
Python
spark.read.format("json").load("/data/flight-data/json/2015-summary.json").schema
# Python returns the following:
StructType(List(StructField(DEST_COUNTRY_NAME,StringType,true),
StructField(ORIGIN_COUNTRY_NAME,StringType,true),
StructField(count,LongType,true)))
模式是由多个字段构成的 StructType
,这些字段即为StructField
,具有名称、类型、布尔值标志(用于表示该列是否可以包含缺失值或null值),并且用户可指定与该列关联的元数据(metadata)。元数据存储有关此列的信息(Spark在其机器学习库中使用此功能)。
模式还包含其他的 StructType
(Spark的复杂类型),在第六章中讨论复杂类型的使用。如果数据中的类型(在运行时)与模式不匹配,Spark将抛出错误。下面的示例演示如何为一个DataFrame创建并制定模式。
Python
from pyspark.sql.types import StructField, StructType, StringType, LongType
myManualSchema = StructType([
StructField("DEST_COUNTRY_NAME", StringType(), True),
StructField("ORIGIN_COUNTRY_NAME", StringType(), True),
StructField("count", LongType(), False, metadata={"hello":"world"})
])
df = spark.read.format("json").schema(myManualSchema)\
.load("/data/flight-data/json/2015-summary.json")
Scala
import org.apache.spark.sql.types.{StructField, StructType, StringType, LongType}
import org.apache.spark.sql.types.Metadata
val myManualSchema = StructType(Array(
StructField("DEST_COUNTRY_NAME", StringType, true),
StructField("ORIGIN_COUNTRY_NAME", StringType, true),
StructField("count", LongType, false,
Metadata.fromJson("{"hello":"world"}"))
))
val df = spark.read.format("json").schema(myManualSchema).load("/data/flight-data/json/2015-summary.json")
正如第4章所讨论的,不能简单地通过每种语言类型设置类型,因为 Spark 维护了它自己的类型信息。现在讨论一下scheme 定义的内容:列(Cloumn)。
Spark中的列与电子表格,R dataframe或pandas DataFrame中的列类似,可以对DataFrame中的列进行选择、转换操作与删除,并将这些操作表示为表达式。
对于Spark而言,列是逻辑构造,它只是表示根据表达式为每个记录计算出的值。这意味着要为一列创建一个真值,需要有DataFrame的一行数据。不能在DataFrame上下文之外操作单个列;必须在DataFrame中使用Spark转换操作来修改列的内容。
有很多不同的方法来构造和引用列,两个最简单的方法是通过col函数或column函数,传入需要的列名。
Scala
import org.apache.spark.sql.functions.{col, column}
col("someColumnName")
column("someColumnName")
// 对于 Scala 语言而言,还可以使用$"myColumn"和'myColumn 这两种语法糖进行引用。
$"ename", $"job"
'ename, 'job
Python
from pyspark.sql.functions import col, column
col("someColumnName")
column("someColumnName")
在这本书中将统一使用col( )
函数。如前所述,DataFrame可能不包含该列,所以该列要将列名与catalog中维护的列名相比较之后才会确定该列是否会被解析。如第四章所述,列和数据表的解析在分析器阶段发生。
如果需要引用特定的DataFrame 的列,可以在特定的DataFrame上使用col方法。当执行连接操作时,如果两个谅解的DataFrame存在一个同名列,该方法非常有用。在第8章将详细介绍,显式引用的另一个好处是Spark(在分析阶段)不用自己解析该列。
上一节提到过,列是表达式,表达式是什么? 表达式是在 DataFrame 中数据记录的一个或多个值上的一组转换。把它想象成一个函数,它将一个或多个列名作为输入,解析它们,然后针对数据集中的每个记录创建一个单一值。这个单一值可以是Map或Array之类的复杂类型。
在最简单的情况下,通过expr函数创建的表达式仅是DataFrame列引用。expr("someCol")
等同于col("someCol")
。
列提供了表达式功能的子集。如果使用 col()
并想在该列上执行转换,那必须在该列引用上执行转换,使用表达式时,expr函数实际上解析字符串中的转换和列引用,并且可以将其传递到进一步转换中。
举例:expr("someCol - 5")
, col("someCol") - 5
与expr("someCol") - 5
是相同转换。
这是因为Spark将这些内容编译为指定操作顺序的逻辑树,有以下几个关键点:
举例说明:
(((col("someCol") + 5) * 200) - 6) < col("otherCol")
图 5-1 展示一个逻辑树的整体概述。
逻辑树是一个有向无环图。此图等价于以下代码:
Scala
import org.apache.spark.sql.functions.expr
expr("(((someCol + 5) * 200) - 6) < otherCol")
Python
from pyspark.sql.functions import expr
expr("(((someCol + 5) * 200) - 6) < otherCol")
需要强调的是,上面的表达式是有效SQL代码,就像SELECT表达式,这是因为SQL与DataFrame代码在执行之前会被编译成相同的底层逻辑数。这意味着SQL表达式和DataFrame代码的性能是一样的。这在第四章讨论过。
需要查看DataFrame的列,可以使用诸如printSchema
之类的方法来完成;但是,如果要以编程方式访问列,则可以使用columns属性查看DataFrame上的所有列:
spark.read.format("json").load("/data/flight-data/json/2015-summary.json").columns
在Spark中,DataFrame中的每一行都是一条记录。记录是Row类型的对象。Spark使用列表达式操作Row类型对象,以产生可用的值。Row对象在内部是字节数组,但是Spark没有提供访问数组的接口,因为我们只能使用列表达式来操作它们。
当使用DataFrames时,向驱动器请求行的命令总是返回一个或多个Row类型的行数据。调用DataFrame的first函数来查看一行:
dt.first()
可以通过手动实例化具有每列中的值的Row对象来创建行。注意:只有DataFrame具有模式,行本身没有模式。 这意味着,如果手动创建Row,则必须按照行所附属的DataFrame列顺序来初始化Row对象(将在讨论创建DataFrame时看到这一点)
Scala
import org.apache.spark.sql.Row
val myRow = Row("Hello", null, 1, false)
Python
from pyspark.sql import Row
myRow = Row("Hello", None, 1, False)
访问行中的数据只需指定所需的位置即可,在Scala或Java中,必须使用辅助方法或显式强制值。 但是,在Python或R中,该值将自动转换为正确的类型:
Scala
myRow(0) // type Any
myRow(0).asInstanceOf[String] // String
myRow.getString(0) // String
myRow.getInt(2) // Int
Python
myRow[0]
myRow[2]
还可以使用Dataset API在相应的Java虚拟机(JVM)对象中显式返回一组Data数据。 这将在第11章中介绍。
现在已经简要定义了DataFrame的核心部分,将继续操作DataFrame。使用单个DataFrame时,有一些基本目标。这些细分为几个核心操作,如图5-2所示:
如前所述,我们可以从原始数据源中创建DataFrame,这在第九章会详细讨论。先来创建一个DataFrame示例(为了支持后续示例,将其注册为历史视图,以便可以使用SQL访问并展示一些SQL中的基本操作):
Scala
val df = spark.read.format("json").load("/data/flight-data/json/2015-summary.json")
df.createOrReplaceTempView("dfTable")
Python
df = spark.read.format("json").load("/data/flight-data/json/2015-summary.json")
df.createOrReplaceTempView("dfTable")
还可以通过获取一组行并将其转换操作为一个DataFrame来即时创建DataFrame。
Scala
import org.apache.spark.sql.Row
import org.apache.spark.sql.types.{StructField, StructType, StringType, LongType}
val myManualSchema = new StructType(Array(
new StructField("some", StringType, true),
new StructField("col", StringType, true),
new StructField("names", LongType, false)))
val myRows = Seq(Row("Hello", null, 1L))
val myRDD = spark.sparkContext.parallelize(myRows)
val myDf = spark.createDataFrame(myRDD, myManualSchema)
myDf.show()
Python
from pyspark.sql import Row
from pyspark.sql.types import StructField, StructType, StringType, LongType
myManualSchema = StructType([
StructField("some", StringType(), True),
StructField("col", StringType(), True),
StructField("names", LongType(), False)
])
myRow = Row("Hello", None, 1)
myDf = spark.createDataFrame([myRow], myManualSchema)
myDf.show()
在 Scala 中,还可以通过在 Seq 类型上运行 toDF
来利用控制台中 Spark 的隐式内容(如果将其导入JAR代码中)。 此方法不适用于null类型,因此不一定建议在生产用例中使用。
// in Scala
val myDF = Seq(("Hello", 2, 1L)).toDF("col1", "col2", "col3")
输出结果如下:
+-----+----+-----+
| some| col|names|
+-----+----+-----+
|Hello|null| 1 |
+-----+----+-----+
使用以下三个工具,应该能够解决在DataFrames 中可能遇到的大多数数据分析问题:
select
和 selectExpr
允许在数据表上执行与SQL查询等效的 DataFrame 操作:
SQL查询方式
SELECT * FROM dataFrameTable
SELECT columnName FROM dataFrameTable
SELECT columnName * 10, otherColumn, someOtherCol as c FROM dataFrameTable
最简单的方法是使用 select 方法并将列名作为要使用的字符串传递:
// in Scala
df.select("DEST_COUNTRY_NAME").show(2)
# in Python
df.select("DEST_COUNTRY_NAME").show(2)
-- in SQL
SELECT DEST_COUNTRY_NAME FROM dfTable LIMIT 2
输出结果如下:
+-----------------+
|DEST_COUNTRY_NAME|
+-----------------+
| United States |
| United States |
+-----------------+
可以使用相同的查询样式选择多个列,只需将更多列名称字符串添加到 select 方法调用中即可:
df.select("DEST_COUNTRY_NAME", "ORIGIN_COUNTRY_NAME").show(2)
df.select("DEST_COUNTRY_NAME", "ORIGIN_COUNTRY_NAME").show(2)
SELECT DEST_COUNTRY_NAME, ORIGIN_COUNTRY_NAME FROM dfTable LIMIT 2
输出如下:
+-----------------+-------------------+
|DEST_COUNTRY_NAME|ORIGIN_COUNTRY_NAME|
+-----------------+-------------------+
| United States | Romania |
| United States | Croatia |
+-----------------+-------------------+
如本章前面小节“列和表达式”所述,可以通过多种不同的方式引用列,而且这些列可以等价转换:
import org.apache.spark.sql.functions.{expr, col, column}
// scala
df.select(
df.col("DEST_COUNTRY_NAME"),
col("DEST_COUNTRY_NAME"),
column("DEST_COUNTRY_NAME"),
'DEST_COUNTRY_NAME,
$"DEST_COUNTRY_NAME",
expr("DEST_COUNTRY_NAME")
).show(2)
# in Python
from pyspark.sql.functions import expr, col, column
df.select(
expr("DEST_COUNTRY_NAME"),
col("DEST_COUNTRY_NAME"),
column("DEST_COUNTRY_NAME")
).show(2)
一种常见的错误是混合Column对象和字符串。 例如,以下代码将导致编译器错误:
df.select(col("DEST_COUNTRY_NAME"), "DEST_COUNTRY_NAME")
到目前为止,expr是我们可以使用的最灵活的引用。它可以引用普通列或列的字符串操作。为了说明这一点,先更改列名,然后使用AS关键字然后在该列上使用alias方法将其更改回:
// in Scala
df.select(expr("DEST_COUNTRY_NAME AS destination")).show(2)
# in Python
df.select(expr("DEST_COUNTRY_NAME AS destination")).show(2)
-- in SQL
SELECT DEST_COUNTRY_NAME as destination FROM dfTable LIMIT 2
这会将列名更改为“ destination”。可以进一步将表达式的结果作为另一个表达式来处理:
// in Scala
df.select(expr("DEST_COUNTRY_NAME as destination").alias("DEST_COUNTRY_NAME")).show(2)
# in Python
df.select(expr("DEST_COUNTRY_NAME as destination").alias("DEST_COUNTRY_NAME")).show(2)
上述操作将列名更改会原来名称。
因为Select后面跟着一系列expr是非常常见的写法,所有Spark有一个有效地描述此操作的接口:selectExpr。
// in Scala
df.selectExpr("DEST_COUNTRY_NAME as newColumnName", "DEST_COUNTRY_NAME").show(2)
# in Python
df.selectExpr("DEST_COUNTRY_NAME as newColumnName", "DEST_COUNTRY_NAME").show(2)
这是Spark最强大的地方,可以使用selectExpr构建复杂表达式来创建DataFrame。实际上,可以添加任何不包含聚合操作的有效SQL语句,并且只要列可以解析,下面是一个简单的例子,在DataFrame中添加一个新列withinCountry,用于描述目的地和起点是否相同:
// in Scala
df.selectExpr(
"*", // include all original columns
"(DEST_COUNTRY_NAME = ORIGIN_COUNTRY_NAME) as withinCountry"
).show(2)
# in Python
df.selectExpr(
"*", # all original columns
"(DEST_COUNTRY_NAME = ORIGIN_COUNTRY_NAME) as withinCountry"
).show(2)
-- in SQL
SELECT *, (DEST_COUNTRY_NAME = ORIGIN_COUNTRY_NAME) as withinCountry FROM dfTable LIMIT 2
输出结果如下:
+-----------------+-------------------+-----+-------------+
|DEST_COUNTRY_NAME|ORIGIN_COUNTRY_NAME|count|withinCountry|
+-----------------+-------------------+-----+-------------+
| United States | Romania | 15 | false |
| United States | Croatia | 1 | false |
+-----------------+-------------------+-----+-------------+
使用select语句,还可以利用系统预定义好的聚合函数来指定整个DataFrame上的聚合操作,代码示例如下所示:
// in Scala
df.selectExpr("avg(count)", "count(distinct(DEST_COUNTRY_NAME))").show(2)
# in Python
df.selectExpr("avg(count)", "count(distinct(DEST_COUNTRY_NAME))").show(2)
-- in SQL
SELECT avg(count), count(distinct(DEST_COUNTRY_NAME)) FROM dfTable LIMIT 2
输出结果如下:
+-----------+---------------------------------+
| avg(count)|count(DISTINCT DEST_COUNTRY_NAME)|
+-----------+---------------------------------+
|1770.765625| 132 |
+-----------+---------------------------------+
有时需要给Spark传递显式的值,它们只是一个值而非新列,这可能是一个常量值,或接下来比较新的值,通过字面量(literal)传递,简单来说,就是将给定编程语言的字面上的值转换为Spark可以理解的值,字面量就是表达式,可以用操作表达式的方式来使用它们:
Scala
import org.apache.spark.sql.functions.lit
df.select(expr("*"), lit(1).as("One")).show(2)
Python
from pyspark.sql.functions import lit
df.select(expr("*"), lit(1).alias("One")).show(2)
在SQL中,文字只是特定的值:
SELECT *, 1 as One FROM dfTable LIMIT 2
输出结果如下:
+-----------------+-------------------+-----+---+
|DEST_COUNTRY_NAME|ORIGIN_COUNTRY_NAME|count|One|
+-----------------+-------------------+-----+---+
| United States | Romania | 15 | 1 |
| United States | Croatia | 1 | 1 |
+-----------------+-------------------+-----+---+
使用withColum可以为DataFrame添加新列,这种方式更为规范一些,例如,添加一个仅包含数字1的列:
Scala
// 基于已有列值新增列
df.withColumn("numberOne",$"sal"+1000)
// 基于固定值新增列
df.withColumn("numberOne",lit(1000))
Python
// 基于已有列值新增列
df.withColumn("numberOne","sal"+1000)
// 基于固定值新增列
df.withColumn("numberOne",lit(1))
SQL
select *, 1 as numberOne from dfTable Limit 2
在下一个示例中,当出发国家与目的国家相同时,将其设置为一个布尔标志:
// in scala
df.withColumn("withinCountry", expr("DEST_COUNTRY_NAME" == "ORIGIN_COUNTRY_NAME")).show(2)
# in python
df.withColumn("withCountry", expr("DEST_COUNTRY_NAME" == "ORIGIN_COUNTRY_NAME")).show(2)
注意:withColumn函数有两个参数:列名和给定行赋值的表达式,也可以使用withColumn对某一列重命名:
df.withColumn("Destionation", expr("DEST_COUNTRY_NAME")).columns
使用withColumnRenamed方法实现对列重命名,第一个参数是要被修改的列名,第二个参数是新的列名:
df.withColumnRenamed("comm", "common").show()
对于Spark列名中的保留字符和关键字,通过使用反引号(`)字符来转义列名:
Scala
dfWithLongColName.selectExpr(
"`This Long Column-Name`",
"`This Long Column-Name` as `new col`")
.show(2)
Python
dfWithLongColName.selectExpr(
"`This Long Column-Name`",
"`This Long Column-Name` as `new col`")\
.show(2)
dfWithLongColName.createOrReplaceTempView("dfTableLong")
SQL
SELECT This Long Column-Name, This Long Column-Name as new col FROM dfTableLong LIMIT 2
// 支持删除多个列
df.drop("ORIGIN_COUNTRY_NAME","jDEST_COUNTRY_NAMEob").show()
有时,可能需要从一种类型转换为另一种类型。
df.withColumn("count2", col("count").cast("long"))
一个常见的用例是在DataFrame中提取唯一或不同的值。 这些值可以在一列或多列中。
df.select("ORIGIN_COUNTRY_NAME", "DEST_COUNTRY_NAME").distinct().count()
SELECT COUNT(DISTINCT(ORIGIN_COUNTRY_NAME, DEST_COUNTRY_NAME)) FROM dfTable
为了过滤行,创建一个表达式,其结果为true或false。 然后,使用等于false的表达式过滤掉行。 可以使用where或filter。
df.filter(col("count") < 2).show(2)
df.where("count < 2").show(2)
SQL
SELECT * FROM dfTable WHERE count < 2 LIMIT 2
可能希望将多个过滤器放入相同的表达式中。尽管这是可能的,但它并不总是有用的,因为 Spark 会自动执行所有的过滤操作,而不考虑过滤器的排序。这意味着,如果您想指定多个和过滤器,只需将它们按顺序链接起来,让Spark 处理其余部分:
// in Scala
df.where(col("count") < 2).where(col("ORIGIN_COUNTRY_NAME") =!= "Croatia")
.show(2)
# in Python
df.where(col("count") < 2).where(col("ORIGIN_COUNTRY_NAME") != "Croatia")\
.show(2)
-- in SQL
SELECT * FROM dfTable WHERE count < 2 AND ORIGIN_COUNTRY_NAME != "Croatia"
LIMIT 2
在DataFrame上使用sample方法抽取一些随机记录。
Scala
val seed = 5
val withReplacement = false
val fraction = 0.5
df.sample(withReplacement, fraction, seed).count()
Python
seed = 5
withReplacement = False
fraction = 0.5
df.sample(withReplacement, fraction, seed).count()
参数说明如下:
DataFrame随机分割通常与机器学习算法一起使用以创建训练,验证和测试集。在示例中,将通过设置将DataFrame分割的权重(split函数的参数),将DataFrame分为两个不同的DataFrame。
// in Scala
val dataFrames = df.randomSplit(Array(0.25, 0.75), seed)
dataFrames(0).count() > dataFrames(1).count() // False
# in Python
dataFrames = df.randomSplit([0.25, 0.75], seed)
dataFrames[0].count() > dataFrames[1].count() # False
当对一个DataFrame中的值进行排序时,总是希望使用DataFrame顶部的最大值或最小值进行排序。 有两种等效的操作可以执行完全相同的排序和 orderBy 操作。 它们接受列表达式和字符串以及多列。 默认是按升序排序:
// in Scala
df.sort("count").show(5)
df.orderBy("count", "DEST_COUNTRY_NAME").show(5)
df.orderBy(col("count"), col("DEST_COUNTRY_NAME")).show(5)
# in Python
df.sort("count").show(5)
df.orderBy("count", "DEST_COUNTRY_NAME").show(5)
df.orderBy(col("count"), col("DEST_COUNTRY_NAME")).show(5)
要更明确地指定排序方向,如果对列进行操作,则需要使用 asc
和 desc
函数。
// in Scala
import org.apache.spark.sql.functions.{desc, asc}
df.orderBy(expr("count desc")).show(2)
df.orderBy(desc("count"), asc("DEST_COUNTRY_NAME")).show(2)
# in Python
from pyspark.sql.functions import desc, asc
df.orderBy(expr("count desc")).show(2)
df.orderBy(col("count").desc(), col("DEST_COUNTRY_NAME").asc()).show(2)
SELECT * FROM dfTable ORDER BY count DESC, DEST_COUNTRY_NAME ASC LIMIT 2
一个高级技巧是使用 asc_nulls_first
,desc_nulls_first
,asc_nulls_last
或 desc_nulls_last
指定希望空值出现在有序DataFrame中的位置(最前端或者最后端)。
出于优化目的,有时建议在每个分区内进行另一组转换之前进行排序。 可以使用 sortWithinPartitions
方法执行此操作:
// in Scala
spark.read.format("json").load("/data/flight-data/json/*-summary.json")
.sortWithinPartitions("count")
# in Python
spark.read.format("json").load("/data/flight-data/json/*-summary.json")
.sortWithinPartitions("count")
通常,可能希望限制从DataFrame中提取的内容,通过使用limit方法来做到这一点:
// in Scala
df.limit(5).show()
# in Python
df.limit(5).show()
-- in SQL
SELECT * FROM dfTable LIMIT 6
另一个重要的优化是根据一些频繁过滤的列对数据进行分区这些列控制整个集群中数据的物理布局,包括分区方案和分区数。 无论是否需要重新分区,重新分区都会导致数据的完全随机洗牌(shuffle)。 这意味着通常仅应在将来的分区数大于当前的分区数时或在按一组列进行分区时重新分区:
// in Scala
df.rdd.getNumPartitions // 1
# in Python
df.rdd.getNumPartitions() # 1
// in Scala
df.repartition(5)
# in Python
df.repartition(5)
如果知道经常要按某个列进行过滤,则值得根据该列进行重新分区:
// in Scala
df.repartition(col("DEST_COUNTRY_NAME"))
# in Python
df.repartition(col("DEST_COUNTRY_NAME"))
// in Scala
df.repartition(5, col("DEST_COUNTRY_NAME"))
# in Python
df.repartition(5, col("DEST_COUNTRY_NAME"))
coalesce合并操作不会引起全量随机洗牌, 此操作将根据目标国家/地区名称将数据随机分为五个分区,然后将它们合并(不进行全量随机洗牌):
// in Scala
df.repartition(5, col("DEST_COUNTRY_NAME")).coalesce(2)
# in Python
df.repartition(5, col("DEST_COUNTRY_NAME")).coalesce(2)
使用了几种不同的方法来进行操作,这些方法实际上都是相同的: collect从整个DataFrame中获取所有数据,take选择前N行,然后show很好地打印出多行。
// in Scala
val collectDF = df.limit(10)
collectDF.take(5) // take works with an Integer count
collectDF.show() // this prints it out nicely
collectDF.show(5, false)
collectDF.collect()
# in Python
collectDF = df.limit(10)
collectDF.take(5) # take works with an Integer count
collectDF.show() # this prints it out nicely
collectDF.show(5, False)
collectDF.collect()
内容来源于网络,如有侵权,请联系作者删除!