虚拟机安装spark配置推荐

来源:互联网 发布:中科院自动化所 知乎 编辑:程序博客网 时间:2024/06/05 07:38

如果虚拟机配置的内存太少,spark运行计算的时候会报:

WARN TaskSchedulerImpl: Initial job has not accepted any resources; check your cluster uito ensure that workers are registered and have sufficient memory

资源不足的问题,导致计算无法继续。


推荐配置如下:

主机内存16GB,i7





配置详见:http://blog.csdn.net/zengmingen/article/details/71631308


-------------

更多的Java,Android,大数据,J2EE,Python,数据库,Linux,Java架构师,教程,视频请访问:

http://www.cnblogs.com/zengmiaogen/p/7083694.html



0 0