Closed jplijplijpli closed 7 years ago
运行spark-submit到好像成功了
指定了master结果也是一样
记不太清楚了。好像是需要把 Hadoop-NameNode Hadoop-DateNode-1 Hadoop-DateNode-2 添加到 /etc/hosts 里面
还有就是启动spark-shell之前,需要启动hadoop
嗯,在自己的环境下验证了一下, 不启动hadoop的时候和你的是一样的错误。
原因是:shell模式执行,script里面要求链接hadoop
报了一堆错,还没有spark context
Node好像正常启动了
请问有成功的同学吗?