# spark-docker-standlone
# spark
这是一个基于 debian:stretch 的Spark容器,基于standalone模式进行应用部署,需要使用docker-compose.yml来定义集群配置,或者以此作为一个更加复杂集群的基础
## 例子
先跑一下SpariPi的例子
docker run --rm -it -p 4040:4040 gettyimages/spark bin/run-example SparkPi 10
在AWS上执行spark-shell:
docker run --rm -it -e "AWS_ACCESS_KEY_ID=TYOURKEY" -e "AWS_SECRET_ACCESS_KEY=TYOURSECRET" -p 4040:4040 gettyimages/spark bin/spark-shell
使用PySpark
echo -e "import pyspark\n\nprint(pyspark.SparkContext().parallelize(range(0, 10)).count())" > count.py
docker run --rm -it -p 4040:4040 -v $(pwd)/count.py:/count.py gettyimages/spark bin/spark-submit /count.py
## docker-compose例子
使用docker-compose创建一个简单的standalone模式集群:
docker-compose up
可以通过Docker_host:8080来查看SparkUI
运行pyspark,需要进入容器:
docker exec -it dockerspark_master_1 /bin/bash
bin/pyspark
#执行SparkPi
dockerexec -it dockerspark_master_1 /bin/bash
bin/run-example SparkPi 10
没有合适的资源?快使用搜索试试~ 我知道了~
温馨提示
- 不懂运行,下载完可以私聊问,可远程教学 该资源内项目源码是个人的毕设,代码都测试ok,都是运行成功后才上传资源,答辩评审平均分达到96分,放心下载使用! <项目介绍> 1、该资源内项目代码都经过测试运行成功,功能ok的情况下才上传的,请放心下载使用! 2、本项目适合计算机相关专业(如计科、人工智能、通信工程、自动化、电子信息等)的在校学生、老师或者企业员工下载学习,也适合小白学习进阶,当然也可作为毕设项目、课程设计、作业、项目初期立项演示等。 3、如果基础还行,也可在此代码基础上进行修改,以实现其他功能,也可用于毕设、课设、作业等。 下载后请首先打开README.md文件(如有),仅供学习参考, 切勿用于商业用途。 --------
资源推荐
资源详情
资源评论
收起资源包目录
sparkClusterByDocker-master.zip (8个子文件)
sparkClusterByDocker-master
LICENSE 11KB
spark-docker-standalone
Dockerfile_source 3KB
worker
spark-defaults.conf 338B
docker-compose.yml 955B
Dockerfile 3KB
master
spark-defaults.conf 320B
README.md 1KB
README.md 280B
共 8 条
- 1
资源评论
机器学习的喵
- 粉丝: 518
- 资源: 1269
下载权益
C知道特权
VIP文章
课程特权
开通VIP
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功