得到一个pyspark.sql.dataframe中所有列的名称

  统计/机器学习 Python    浏览次数: 567
0

如何得到一个pyspark.sql.dataframe中所有的列名呢?


谢谢这个社区,帮助小弱解决了好几个问题

 

thatdeep   2018-05-04 07:42



   2个回答 
3

有两种方法

spark_df.schema.names

或者

spark_df.columns


SofaSofa数据科学社区 DS面经 问答 实战

mrhust   2018-05-04 09:01

0


df.printSchema()


SofaSofa数据科学社区 DS面经 问答 实战

Nagozi   2018-07-05 04:16



  相关主题

如何对pyspark dataframe删除一列   2回答

pyspark里如何进行SELECT DISTINCT操作?   1回答

pyspark dataframe的collect()方法是什么意思?   2回答

pyspark里unpersist()什么作用?   1回答

返回pyspark dataframe的行数?   1回答

怎么将两个pyspark dataframe以串联的形式合并?   1回答

怎么对pyspark dataframe更改列名   2回答

spark ml和spark mllib区别   5回答

怎么把pyspark RDD dataframe转为pandas.DataFrame?   1回答

pyspark groupby 加权平均?   1回答

怎么把一个大的dataframe按行分割成若干个小的dataframe。   1回答

在jupyter notebook后台进程没关闭的情况下,只要是之前使用过且没有shutdown的notebook一直会占用内存吗?   2回答



回答问题时需要注意什么?

我们谢绝在回答前讲“生动”的故事。

我们谢绝“这么简单,你自己想”、“书上有的,你认真看”这类的回答;如果你认为对方的提问方式或者内容不妥,你可以直接忽略该问题,不用进行任何作答,甚至可以对该问题投反对票。

我们谢绝答非所问。

我们谢绝自己不会、硬要回答。

我们感激每一个用户在编写答案时的努力与付出!