如何得到一个pyspark.sql.dataframe中所有的列名呢?
谢谢这个社区,帮助小弱解决了好几个问题
您确定要删除本贴么?所有相关回复也会被一并删除并且无法恢复。
thatdeep 2018-05-04 07:42
有两种方法
spark_df.schema.names
或者
spark_df.columns
mrhust 2018-05-04 09:01
df.printSchema()
Nagozi 2018-07-05 04:16
回答问题时需要注意什么?
我们谢绝在回答前讲“生动”的故事。 我们谢绝答非所问。 我们谢绝自己不会、硬要回答。我们谢绝“这么简单,自己想”、“书上有,自己找”这类回答;如果你认为对方提问方式或者内容不妥,可以直接忽略,不作解答,甚至投反对票。我们感激每一个用户在编写答案时的努力与付出!
相关讨论
怎么在pyspark里把dataframe写入csv文件?
如何对pyspark dataframe删除一列
如何获取pyspark DataFrame的行数和列数?
pyspark里unpersist()什么作用?
pyspark dataframe的collect()方法是什么意思?
pyspark里如何进行SELECT DISTINCT操作?
返回pyspark dataframe的行数?
怎么将两个pyspark dataframe以串联的形式合并?
pyspark中怎么对dataframe里的行按照列去重?
怎么对pyspark.sql.dataframe按照某一列降序排列?
随便看看
人工神经网络有哪些常用的激活函数?
numpy里生成单位矩阵?
matplotlib.pyplot做折线图的时候,显示为虚线,或者点划线?
对连续特征一定要进行分箱处理吗?
python或者numpy求数值的中位数、四分位数