我想在pyspark中捕获 show 的结果,类似于此处。我无法使用pyspark找到解决方案,只能使用scala。
df.show() #+----+-------+ #| age| name| #+----+-------+ #|null|Michael| #| 30| Andy| #| 19| Justin| #+----+-------+
最终目的是将其捕获为logger.info 我尝试过的字符串logger.info(df.show()),仅在控制台上显示。
logger.info
logger.info(df.show())
您可以使用链接捕获pyspark中的explain()的结果中所示的相同方法来构建辅助函数。只需检查源代码show()并观察它正在调用self._jdf.showString()。
show()
self._jdf.showString()
答案取决于您使用的是哪个版本的spark,因为参数的数量show()随时间而变化。
在版本2.3中,vertical添加了自变量。
vertical
def getShowString(df, n=20, truncate=True, vertical=False): if isinstance(truncate, bool) and truncate: return(df._jdf.showString(n, 20, vertical)) else: return(df._jdf.showString(n, int(truncate), vertical))
从1.5版开始,truncate添加了参数。
truncate
def getShowString(df, n=20, truncate=True): if isinstance(truncate, bool) and truncate: return(df._jdf.showString(n, 20)) else: return(df._jdf.showString(n, int(truncate)))
该show功能最初是在1.3版中引入的。
show
def getShowString(df, n=20): return(df._jdf.showString(n))
现在,如下使用助手功能:
x = getShowString(df) # default arguments print(x) #+----+-------+ #| age| name| #+----+-------+ #|null|Michael| #| 30| Andy| #| 19| Justin| #+----+-------+
或您的情况:
logger.info(getShowString(df))