怎么将两个pyspark dataframe以串联的形式合并?

  统计/机器学习 Python    浏览次数: 285
0

两个pyspark dataframe的列和列名都是一样的,也就是Schema是一样的,怎么将它们以串联的形式合并?

 

ccc225   2018-05-31 22:23



   1个回答 
3


df_concat = df_1.union(df_2)


sasa   2018-06-01 03:47



  相关主题

引用报错ImportError: No module named stats   1回答

DataFrame批量修改列名   1回答

map lambda if逗号报错,invalid syntax   1回答

python里有没有类似excel里的那种数据透视表?   1回答

返回pyspark dataframe的行数?   1回答

python里求累计和   2回答

怎么合并(串联)两个dataframe?   1回答

如何对pyspark dataframe删除一列   2回答

python如何读取元素中含有逗号的csv文件   1回答

怎么对pyspark dataframe更改列名   1回答

得到一个pysaprk.sql.dataframe中所有列的名称   2回答

请问python已知某个元素,怎么得到该元素在dataframe中的位置   1回答



回答问题时需要注意什么?

我们谢绝在回答前讲“生动”的故事。

我们谢绝“这么简单,你自己想”、“书上有的,你认真看”这类的回答;如果你认为对方的提问方式或者内容不妥,你可以直接忽略该问题,不用进行任何作答,甚至可以对该问题投反对票。

我们谢绝答非所问。

我们谢绝自己不会、硬要回答。

我们感激每一个用户在编写答案时的努力与付出!