package utils;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.hbase.client.HBaseAdmin;
import org.apache.hadoop.hbase.client.HTable;
import org.apache.hadoop.hbase.client.Put;
import org.apache.hadoop.hbase.util.Bytes;
import java.io.IOException;
/**
* HBase操作工具类:Java工具类建议采用单例模式封装
*/
public class HBaseUtils {
HBaseAdmin admin = null;
Configuration configuration = null;
/**
* 私有改造方法
*/
private HBaseUtils(){
configuration = new Configuration();
configuration.set("hbase.zookeeper.quorum", "master:2181");
configuration.set("hbase.rootdir", "hdfs://master:8020/hbase");
try {
admin = new HBaseAdmin(configuration);
} catch (IOException e) {
e.printStackTrace();
}
}
private static HBaseUtils instance = null;
public static synchronized HBaseUtils getInstance() {
if(null == instance) {
instance = new HBaseUtils();
}
return instance;
}
/**
* 根据表名获取到HTable实例
*/
public HTable getTable(String tableName) {
HTable table = null;
try {
table = new HTable(configuration, tableName);
} catch (IOException e) {
e.printStackTrace();
}
return table;
}
/**
* 添加一条记录到HBase表
* @param tableName HBase表名
* @param rowkey HBase表的rowkey
* @param cf HBase表的columnfamily
* @param column HBase表的列
* @param value 写入HBase表的值
*/
public void put(String tableName, String rowkey, String cf, String column, String value) {
HTable table = getTable(tableName);
Put put = new Put(Bytes.toBytes(rowkey));
put.add(Bytes.toBytes(cf), Bytes.toBytes(column), Bytes.toBytes(value));
try {
table.put(put);
} catch (IOException e) {
e.printStackTrace();
}
}
public static void main(String[] args) {
//HTable table = HBaseUtils.getInstance().getTable("imooc_course_clickcount");
//System.out.println(table.getName().getNameAsString());
String tableName = "imooc_course_clickcount" ;
String rowkey = "20171111_88";
String cf = "info" ;
String column = "click_count";
String value = "2";
HBaseUtils.getInstance().put(tableName, rowkey, cf, column, value);
}
}
没有合适的资源?快使用搜索试试~ 我知道了~
温馨提示
本科毕业设计项目,基于spark streaming+flume+kafka+hbase的实时日志处理分析系统 基于spark streaming+flume+kafka+hbase的实时日志处理分析系统 本科毕业设计项目,基于spark streaming+flume+kafka+hbase的实时日志处理分析系统 基于spark streaming+flume+kafka+hbase的实时日志处理分析系统 本科毕业设计项目,基于spark streaming+flume+kafka+hbase的实时日志处理分析系统 基于spark streaming+flume+kafka+hbase的实时日志处理分析系统 本科毕业设计项目,基于spark streaming+flume+kafka+hbase的实时日志处理分析系统 基于spark streaming+flume+kafka+hbase的实时日志处理分析系统 本科毕业设计项目,基于spark streaming+flume+kafka+hbase的实时日志处理分析系统 基于spark streaming+flume
资源推荐
资源详情
资源评论
收起资源包目录
Real-time-log-analysis-system-master.zip (26个子文件)
Real-time-log-analysis-system-master
project_web
pom.xml 2KB
src
test
java
WebApplicationTests.java 318B
main
resources
application.properties 47B
templates
echarts.html 2KB
demo.html 2KB
test.html 1KB
static
js
echarts.min.js 610KB
jquery.js 94KB
java
WebApplication.java 290B
utils
HBaseUtils.java 2KB
dao
CourseClickCountDAO.java 1KB
spark
ImoocStatApp.java 2KB
HelloBoot.java 826B
domain
CourseClickCount.java 469B
README11.md 226B
Project
pom.xml 6KB
src
test
resources
log4j.properties 483B
java
LoggerGenerator.java 386B
main
utils
HBaseUtils.java 2KB
DateUtils.scala 571B
dao
CourseSearchClickCountDAO.scala 2KB
CourseClickCountDAO.scala 1KB
spark
ImoocStatStreamingApp.scala 3KB
domain
CourseClickCount.scala 251B
CourseSearchClickCount.scala 214B
ClickLog.scala 367B
共 26 条
- 1
资源评论
- Andrea_10242024-04-18这个资源内容超赞,对我来说很有价值,很实用,感谢大佬分享~
白话机器学习
- 粉丝: 8218
- 资源: 7687
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功