怎么将两个pyspark dataframe以串联的形式合并?

  统计/机器学习 Python    浏览次数: 901
0

两个pyspark dataframe的列和列名都是一样的,也就是Schema是一样的,怎么将它们以串联的形式合并?

 

ccc225   2018-05-31 22:23



   1个回答 
3


df_concat = df_1.union(df_2)


SofaSofa数据科学社区 DS面经 问答 实战

sasa   2018-06-01 03:47



  相关主题

如何对pyspark dataframe删除一列   2回答

得到一个pyspark.sql.dataframe中所有列的名称   2回答

返回pyspark dataframe的行数?   1回答

pyspark里unpersist()什么作用?   1回答

pyspark dataframe的collect()方法是什么意思?   2回答

怎么对pyspark dataframe更改列名   1回答

pyspark里如何进行SELECT DISTINCT操作?   1回答

spark ml和spark mllib区别   3回答

怎么把pyspark RDD dataframe转为pandas.DataFrame?   1回答

pyspark groupby 加权平均?   1回答

怎么在jupyter notebook里查看python的版本?   1回答

Jupiter notebook中显示一个dataframe所有的列   2回答



回答问题时需要注意什么?

我们谢绝在回答前讲“生动”的故事。

我们谢绝“这么简单,你自己想”、“书上有的,你认真看”这类的回答;如果你认为对方的提问方式或者内容不妥,你可以直接忽略该问题,不用进行任何作答,甚至可以对该问题投反对票。

我们谢绝答非所问。

我们谢绝自己不会、硬要回答。

我们感激每一个用户在编写答案时的努力与付出!