怎么将两个pyspark dataframe以串联的形式合并?

  统计/机器学习 Python    浏览次数: 111
0

两个pyspark dataframe的列和列名都是一样的,也就是Schema是一样的,怎么将它们以串联的形式合并?

 

ccc225   2018-05-31 22:23



   1个回答 
2


df_concat = df_1.union(df_2)


sasa   2018-06-01 03:47



  相关主题

引用报错ImportError: No module named stats   1回答

python怎么读取txt格式的数据文件?   1回答

得到一个pysaprk.sql.dataframe中所有列的名称   1回答

python如何读取元素中含有逗号的csv文件   1回答

DataFrame批量修改列名   1回答

获取DataFrame所占空间的大小   2回答

用python生成一个取值在a到b之间的随机矩阵   1回答

python里有没有类似matlab里linspace的功能?   2回答

pyspark里unpersist()什么作用?   1回答

Jupyter中InteractiveShell.ast_node_interactivity = "all"有什么用?   1回答

怎么对pyspark dataframe更改列名   1回答

map lambda if逗号报错,invalid syntax   1回答



回答问题时需要注意什么?

我们谢绝在回答前讲“生动”的故事。

我们谢绝“这么简单,你自己想”、“书上有的,你认真看”这类的回答;如果你认为对方的提问方式或者内容不妥,你可以直接忽略该问题,不用进行任何作答,甚至可以对该问题投反对票。

我们谢绝答非所问。

我们谢绝自己不会、硬要回答。

我们感激每一个用户在编写答案时的努力与付出!