pyspark dataframe的collect()方法是什么意思?

  统计/机器学习 Python    浏览次数: 77
0

pyspark dataframe的collect()方法是什么意思?有什么用?

 

thatdeep   2018-10-28 03:03



   2个回答 
3

spark_df.collect()相当于spark_df.show(全部行)

就是一次性把这个dataframe里的所有行显示出来

SofaSofa数据科学社区 DS面经 问答 实战

曾经是科比   2018-10-28 12:13

2

https://stackoverflow.com/questions/44174747/spark-dataframe-collect-vs-select


SofaSofa数据科学社区 DS面经 问答 实战

dizhouw2   2018-10-28 03:52



  相关主题

pyspark里如何进行SELECT DISTINCT操作?   1回答

怎么将两个pyspark dataframe以串联的形式合并?   1回答

pyspark里unpersist()什么作用?   1回答

得到一个pyspark.sql.dataframe中所有列的名称   2回答

返回pyspark dataframe的行数?   1回答

如何对pyspark dataframe删除一列   2回答

怎么对pyspark dataframe更改列名   1回答

怎么把pyspark RDD dataframe转为pandas.DataFrame?   1回答

pyspark groupby 加权平均?   1回答

获取DataFrame所占空间的大小   2回答

python里有没有类似matlab里linspace的功能?   2回答

python里的<<或者>>符号是什么意思?   2回答



回答问题时需要注意什么?

我们谢绝在回答前讲“生动”的故事。

我们谢绝“这么简单,你自己想”、“书上有的,你认真看”这类的回答;如果你认为对方的提问方式或者内容不妥,你可以直接忽略该问题,不用进行任何作答,甚至可以对该问题投反对票。

我们谢绝答非所问。

我们谢绝自己不会、硬要回答。

我们感激每一个用户在编写答案时的努力与付出!