没有合适的资源?快使用搜索试试~ 我知道了~
kafka-spark-streaming-druid:将卡夫卡流带入火花,应用变换并沉入德鲁伊。 一切都Dockerized
共19个文件
scala:11个
yaml:2个
xml:1个
需积分: 16 0 下载量 102 浏览量
2021-05-26
22:12:50
上传
评论
收藏 31KB ZIP 举报
温馨提示
卡夫卡火花流德鲁伊 将卡夫卡流带入火花,应用变换并沉入德鲁伊。 一切都Dockerized。 这是一个快速入门项目,可以帮助新手开始建立满足其大数据需求的基础架构。 该设置包括kafka,spark和druid,该过程使用Docker自动执行。 如何开始 克隆仓库 编辑 。 将kafka容器的env ADVERTISED_HOST=10.24.48.147为您的Docker主机的ip。 更改spark的卷/home/rvenkataraman/lambda-docker-poc/spark-job:/usr/local/jobs指向您在Docker主机中选择的任何目录 Kafka容器需要设置ADVERTISED_HOST才能使kafka生产者从容器外部运行 火花容器的容积完全是可选的。 这旨在将火花罐复制到docker主机中,并自动将其与spark容器共享。 您也可以手动scp文件,如
资源推荐
资源详情
资源评论
收起资源包目录
kafka-spark-streaming-druid-master.zip (19个子文件)
kafka-spark-streaming-druid-master
src
main
scala
pipeline
common
SerDeUtil.scala 4KB
MyKyroRegistrator.scala 275B
kafka
KafkaTasks.scala 3KB
druid
EventRDDBeamFactory.scala 2KB
config
SparkConfig.scala 840B
DruidConfig.scala 3KB
ConfigProperty.scala 302B
KafkaConfig.scala 288B
InputConfig.scala 471B
Runner.scala 667B
spark
SparkStreamingTasks.scala 3KB
resources
SampleEventDataset.csv 1.52MB
pipeline.model.avro
KafkaEvent.avsc 202B
pipeline-config.yaml 1017B
java
pipeline
model
avro
KafkaEvent.java 5KB
README.md 4KB
pom.xml 8KB
docker-compose.yaml 1006B
.gitignore 216B
共 19 条
- 1
资源评论
黄文池
- 粉丝: 33
- 资源: 4635
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- 【岗位说明】仓储物流部工作职责02.docx
- 【岗位说明】仓储物流部职责和岗位设置.doc
- 【岗位说明】仓储物流部人员配置及岗位职责说明03.docx
- 【岗位说明】仓库岗位工作职责.docx
- 【岗位说明】快递公司岗位职责.docx
- 【岗位说明】快递公司各岗位职责.doc
- 【岗位说明】物流部职责.docx
- 【岗位说明】物流部门及各岗位工作职责.doc
- 【岗位说明】公司各部门组织架构和岗位职责.doc
- 【岗位说明】外卖配送员制度与职责.docx
- 【岗位说明】物流仓管岗位职责说明书.docx
- 【岗位说明】物流仓储员岗位职责.doc
- 【岗位说明】物流仓管员岗位职责.doc
- 【岗位说明】物流岗位职责说明.docx
- 【岗位说明】物流岗位职责.doc
- 【岗位说明】物流仓储岗位职责.doc
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功