flink-kafka-connector
DataStream API目前支持设定kafka的结束消费位置setBounded(setUnbounded),我使用的是Table API,目前并不支持设置结束位置,只能自定义的flink-kafka连接器,可设定消费kafka的开始和结束位置,可以在批任务的情况下消费kafka数据,测试使用的是Table API,测试结果满足需求。
DataStream API目前支持设定kafka的结束消费位置setBounded(setUnbounded),我使用的是Table API,目前并不支持设置结束位置,只能自定义的flink-kafka连接器,可设定消费kafka的开始和结束位置,可以在批任务的情况下消费kafka数据,测试使用的是Table API,测试结果满足需求。
信用卡欺诈数据,kaggle网站下载的原始数据,可以放心使用,建议稠密数据直接进行归一化处理,稀疏数据先进性embedding处理,之后再进行合并,整体进行pca降维,最后放入算发中使用,正确率挺高的
广告点击预测数据,已脱敏,包含稀疏特征数据和稠密特征数据,需要做embemding映射,再将处理后的数据合并,通过pca降维后,预测结果准确率挺高,总共1万条数据,够用了。
基于idea编辑的相关操作,手把手截图教学,可以根据该文档学习idea的相关操作,整体感觉很方便,以及相关的项目搭建案例,亲测很好用,所有推荐给大家
求知
签到达人
持续创作
签到新秀
分享小兵
分享学徒
创作能手
阅读者勋章
新人勋章