没有合适的资源?快使用搜索试试~ 我知道了~
【SparkSql篇02】SparkSql之自定义UDF和UDAF函数1
需积分: 0 8 下载量 147 浏览量
2022-08-04
17:20:13
上传
评论
收藏 430KB PDF 举报
温馨提示
试读
4页
1.从HDFS中加载数据到DataFrame中 2.注册UDF函数,函数名为toUpper就是将所有名字变成大写 3.创建临时视图,然后执行注册的函数
资源详情
资源评论
资源推荐
万物皆工具,只不过有的工具比较高级,有的工具处于底层,互相结合使用罢了
SparkSQL自定义UDF和UDAF函数
IDEA创建SparkSQL程序
(1)添加SparkSQL的依赖
(2)编写SparkSQL代码
从上面的代码可以得知我们能使用两种方式来处理DataFrame中的数据,一种是调用
DataFrame自身的API,一种是通过SparkSQL来处理数据。对于简单的数据处理可以使用
DataFrame自带的接口处理,如果是业务处理相对复杂,需要关联其它数据,那就使用
SparkSQL来处理。
自定义UDF函数
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-sql_2.11</artifactId>
<version>2.1.1</version>
</dependency>
object SparkSQLDemo {
def main(args: Array[String]): Unit = {
// 创建SparkSession
val spark: SparkSession = SparkSession.builder()
.master("local[*]")
.appName("SparkSQLDemo")
.getOrCreate()
//导入用到隐式转换
//从json文件中创建DF
val df = spark.read.json("file://" +
ClassLoader.getSystemResource("phone.json").getPath)
// 查找年龄大于19岁的
// df.filter($"price" >= 4500).show
// 创建临时表
df.createTempView("phone")
spark.sql("select * from phone where price >= 4500").show
//关闭连接
spark.stop()
}
}
H等等H
- 粉丝: 31
- 资源: 337
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功
评论0