标签:python apache-spark apache-spark-sql pyspark spark-dataframe
这里我创建了一个dateframe,如下所示,
df = spark.createDataFrame([('a',5,'R','X'),('b',7,'G','S'),('c',8,'G','S')],
["Id","V1","V2","V3"])
看起来像
+---+---+---+---+
| Id| V1| V2| V3|
+---+---+---+---+
| a| 5| R| X|
| b| 7| G| S|
| c| 8| G| S|
+---+---+---+---+
我想添加一个由V1,V2,V3组成的元组列.
结果应该是这样的
+---+---+---+---+-------+
| Id| V1| V2| V3|V_tuple|
+---+---+---+---+-------+
| a| 5| R| X|(5,R,X)|
| b| 7| G| S|(7,G,S)|
| c| 8| G| S|(8,G,S)|
+---+---+---+---+-------+
我曾尝试使用与Python类似的syntex,但它不起作用:
df.withColumn("V_tuple",list(zip(df.V1,df.V2,df.V3)))
TypeError:zip参数#1必须支持迭代.
任何帮助,将不胜感激!
解决方法:
我是来自scala,但我相信在python中有类似的方式:
使用sql.functions
包mehtod:
如果要使用这三列获取StructType,请使用struct(cols:Column *):Column方法,如下所示:
from pyspark.sql.functions import struct
df.withColumn("V_tuple",struct(df.V1,df.V2,df.V3))
但如果你想把它作为一个String,你可以使用concat(exprs:Column *):Column方法,如下所示:
from pyspark.sql.functions import concat
df.withColumn("V_tuple",concat(df.V1,df.V2,df.V3))
使用第二种方法,您可能必须将列转换为字符串
我不确定python语法,如果有语法错误,只需编辑答案.
希望这对你有所帮助.最好的祝福
标签:python,apache-spark,apache-spark-sql,pyspark,spark-dataframe 来源: https://codeday.me/bug/20190722/1501349.html
本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享; 2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关; 3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关; 4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除; 5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。