pyspark dataframe的collect()方法是什么意思?

  统计/机器学习 Python    浏览次数: 240
0

pyspark dataframe的collect()方法是什么意思?有什么用?

 

thatdeep   2018-10-28 03:03



   2个回答 
3

spark_df.collect()相当于spark_df.show(全部行)

就是一次性把这个dataframe里的所有行显示出来

SofaSofa数据科学社区 DS面经 问答 实战

曾经是科比   2018-10-28 12:13

2

https://stackoverflow.com/questions/44174747/spark-dataframe-collect-vs-select


SofaSofa数据科学社区 DS面经 问答 实战

dizhouw2   2018-10-28 03:52



  相关主题

pyspark里如何进行SELECT DISTINCT操作?   1回答

怎么对pyspark dataframe更改列名   1回答

怎么将两个pyspark dataframe以串联的形式合并?   1回答

得到一个pyspark.sql.dataframe中所有列的名称   2回答

pyspark里unpersist()什么作用?   1回答

如何对pyspark dataframe删除一列   2回答

返回pyspark dataframe的行数?   1回答

spark ml和spark mllib区别   3回答

怎么把pyspark RDD dataframe转为pandas.DataFrame?   1回答

pyspark groupby 加权平均?   1回答

map lambda if逗号报错,invalid syntax   1回答

python里清除已经定义过的变量   1回答



回答问题时需要注意什么?

我们谢绝在回答前讲“生动”的故事。

我们谢绝“这么简单,你自己想”、“书上有的,你认真看”这类的回答;如果你认为对方的提问方式或者内容不妥,你可以直接忽略该问题,不用进行任何作答,甚至可以对该问题投反对票。

我们谢绝答非所问。

我们谢绝自己不会、硬要回答。

我们感激每一个用户在编写答案时的努力与付出!