hive sql里有percentile_approx的函数可以近似求百分位数,pyspark里没有这个函数,怎么在pyspark里求百分位数?
1个回答
比如你要对ID进行groupby得到val这列第25和75百分位数,那么可以这么操作
percentiles = F.expr('percentile_approx(val, array(0.25, 0.75))')
new_data = data.groupby('ID').agg(percentiles)
相关主题
怎么用pyspark取出hive表里的json串中某一个key的值?
1回答
pyspark里怎么查看一个dataframe的schema?
1回答
pyspark里怎么把类似‘yyyy-mm-dd‘的字符串转成星期几的形式?
1回答
pyspark里转成整数型报错TypeError: unexpected type:
怎么将两个pyspark dataframe以串联的形式合并?
1回答
pyspark中怎么对dataframe里的行按照列去重?
1回答
我们谢绝在回答前讲“生动”的故事。
我们谢绝“这么简单,你自己想”、“书上有的,你认真看”这类的回答;如果你认为对方的提问方式或者内容不妥,你可以直接忽略该问题,不用进行任何作答,甚至可以对该问题投反对票。
我们谢绝答非所问。
我们谢绝自己不会、硬要回答。
我们感激每一个用户在编写答案时的努力与付出!