没有合适的资源?快使用搜索试试~ 我知道了~
java连接sqoop源码-Spark-on-Docker:关于如何在Docker上运行ApacheSpark的教程
共14个文件
png:6个
txt:2个
yml:1个
需积分: 10 0 下载量 7 浏览量
2021-06-15
17:00:13
上传
评论
收藏 891KB ZIP 举报
温馨提示
java连接sqoop源码 Docker 上的火花 这是一个关于如何使用 Docker 使用 Apache Spark 设置可扩展集群的示例教程。 目前,这个项目可以可靠地支持多达 3 个 worker,超过这个集群有点不稳定,即 worker 成功创建并连接到 master,但 spark 工作可能会挂起。 无论如何,3 是大多数学生要求的一个不错的数字。 随着我的进步,我会继续更新。 docker-compose.yml 引用了两个重要的属性,即端口和暴露: 提到的端口将在 docker-compose 启动的不同服务之间共享。 端口将暴露给主机到随机端口或给定端口。 激活容器以侦听来自 docker 外部世界的指定端口(可以是同一主机或不同机器)以及 docker 内部可访问的世界。 公开基本上是“公开”端口而不将它们发布到主机——它们只能被链接的服务访问。 只能指定内部端口。 激活容器以仅从 docker 内部的世界和无法访问的 docker 外部世界侦听特定端口。 Spark Master 是一个从工作器协调资源分配的应用程序。 Master 不执行任何计算。 Master
资源推荐
资源详情
资源评论
收起资源包目录
Spark-on-Docker-master.zip (14个子文件)
Spark-on-Docker-master
docker
Dockerfile 2KB
images
worker.png 156KB
SequenceFile.png 20KB
spark-cluster.png 62KB
memory-heirarchy.png 235KB
master.png 308KB
spark-architecture.png 139KB
build_cluster.sh 1KB
LICENSE 1KB
README.md 15KB
requirements-pip.txt 38B
docker-compose.yml 1KB
.gitignore 57B
important-links.txt 2KB
共 14 条
- 1
资源评论
抹蜜茶
- 粉丝: 303
- 资源: 937
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功