得到一个pyspark.sql.dataframe中所有列的名称

  统计/机器学习 Python    浏览次数: 413
0

如何得到一个pyspark.sql.dataframe中所有的列名呢?


谢谢这个社区,帮助小弱解决了好几个问题

 

thatdeep   2018-05-04 07:42



   2个回答 
3

有两种方法

spark_df.schema.names

或者

spark_df.columns


SofaSofa数据科学社区 DS面经 问答 实战

mrhust   2018-05-04 09:01

0


df.printSchema()


SofaSofa数据科学社区 DS面经 问答 实战

Nagozi   2018-07-05 04:16



  相关主题

怎么对pyspark dataframe更改列名   1回答

返回pyspark dataframe的行数?   1回答

pyspark里如何进行SELECT DISTINCT操作?   1回答

如何对pyspark dataframe删除一列   2回答

pyspark里unpersist()什么作用?   1回答

怎么将两个pyspark dataframe以串联的形式合并?   1回答

pyspark dataframe的collect()方法是什么意思?   2回答

怎么把pyspark RDD dataframe转为pandas.DataFrame?   1回答

pyspark groupby 加权平均?   1回答

from __future__ import division是什么意思   1回答

怎么把一个大的dataframe按行分割成若干个小的dataframe。   1回答

Jupiter notebook中显示一个dataframe所有的列   2回答



回答问题时需要注意什么?

我们谢绝在回答前讲“生动”的故事。

我们谢绝“这么简单,你自己想”、“书上有的,你认真看”这类的回答;如果你认为对方的提问方式或者内容不妥,你可以直接忽略该问题,不用进行任何作答,甚至可以对该问题投反对票。

我们谢绝答非所问。

我们谢绝自己不会、硬要回答。

我们感激每一个用户在编写答案时的努力与付出!