Spark 可以运行纯 python 脚本么?
需求是这样的,目前在处理一个 100G 的数据库。出于简单考虑,我是一次性把数据载入内存做计算,处理本是 python 写的。手头有一台 windows 服务器,内存 128G ,运行起来内存爆了。另外还有一个 spark 集群,由 4 台 128G 内存的服务器组成。由于对 spark 不是很了解,想请教一下大家:
-
我可以用这台 spark 集群运行我的纯 python 脚本么?还是必须改用 spark 的 API?
-
如果可以,可以利用到集群的全部内存,从而解决内存爆表的问题么?
本文由 vps网友提供,转载请注明出处
本文链接: https://www.vpsvsvps.com/discuss/a/1676471776298668032.html