没有合适的资源?快使用搜索试试~ 我知道了~
hbase常见错误整理3年运维经验整理
2星 需积分: 50 31 下载量 180 浏览量
2018-11-28
21:19:09
上传
评论 4
收藏 713KB DOCX 举报
温馨提示
试读
11页
长期支持生产项目过程中,积累的一些经验,从有道云笔记导出可能比较乱,但是问题报错信息和处理解决方案都写得比较详细
资源推荐
资源详情
资源评论
配置第三方依赖包 HADOOP_CLASSPATH 和 HBase 问题
关于这个环境变量。存放在 里面。
这个环境变量是 执行程序时会查询 的路径。以前遇到过在本地开发
程序,本地编译通过本地开发有在 里面导入 包,打包 包并未包含
开发时的 的 中的 包因为考虑到运行 环境中有这些 包然后在
环境下 运行报错不能够找到类。原因是环境中的 的 路
径没有包含在 !""# 里面
解决方法在 里面添加一行
/*(*一定要不然报错)
包含 包即可解决问题
报错:
记一次 集群修复过程
hbase master 启动报错
报错信息:
java.io.IOException: Received error when attempting to archive files
([class org.apache.hadoop.hbase.backup.HFileArchiver$FileablePath,
file:hdfs://nameservice1/hbase/data/default/RASTER/92ceb2d86662ad6d959
f4cc384229e0f/f, class
org.apache.hadoop.hbase.backup.HFileArchiver$FileablePath,
file:hdfs://nameservice1/hbase/data/default/RASTER/92ceb2d86662ad6d959
f4cc384229e0f/i, class
org.apache.hadoop.hbase.backup.HFileArchiver$FileablePath,
file:hdfs://nameservice1/hbase/data/default/RASTER/92ceb2d86662ad6d959
f4cc384229e0f/recovered.edits]), cannot delete region directory. at
org.apache.hadoop.hbase.backup.HFileArchiver.archiveRegion(HFileArchiv
er.java:148) at
org.apache.hadoop.hbase.backup.HFileArchiver.archiveRegion(HFileArchiv
er.java:75) at
org.apache.hadoop.hbase.master.CatalogJanitor.cleanParent(CatalogJanit
or.java:333) at
org.apache.hadoop.hbase.master.CatalogJanitor.scan(CatalogJanitor.java
:254) at
org.apache.hadoop.hbase.master.CatalogJanitor.chore(CatalogJanitor.jav
a:101) at org.apache.hadoop.hbase.Chore.run(Chore.java:87)
解决方案:
直接删除报错表 RASTER 对应的 hdfs 中 Hbase.tmp 中的目录
hadoop fs -rm -r -f
hdfs://mycluster/apps/hbase/data/.tmp/data/default/RASTER
在高并发写时,HBase 的 HDFS DFSClient 端报 SocketTimeoutException 的问题分析和解决
报错信息:
! "#$!%&'()*)+)+,)-.-//0
&.**1.,*2
23!#3#$45666#5$$6478).)*20/9*1.6#010/::1.(
,*..+;,+)*78).)*..)*2..<*..*+*+:53$$#
0+:6=
()*)+).)*2>%0/)+>?*2>%0/)7863@
()*)+).)*2>./0)+?*2>./0)785@
()*)+).)*2>./0)+?*2>./0)78!@
78))>./0)+-/;?>./0)784$@
78))>./0)+.(?>./0)78!##@
解决方案:
在 +, 端和 端,配置同样的 +,)*2)10/ 值。在云梯环境下配置的是
$($ 秒)
老版本参数:+,)*2)10/
新版本参数:dfs.client.socket-timeout
dfs.socket.timeout
dfs.datanode.socket.write.timeout
$%&'
(((($)'*%+%,%%)%$-)'
(((($'.//////$-'
(($-%&'
(($%&'
(((($)'*+%%)%$-)'
(((($'.//////$-'
(($-%&'
($-01%'
参考链接:
https://blog.csdn.net/zhaokunwu/article/details/7336892
山东省厅 AB 参数设置:
(.8报错然后造成(. 下线,最终所有 (. 都下线后,这个 (.8 就挂掉
了
报错信息
3 5"#39&&&()*)+))(.8)&(.8.+
+,+
()*)+)+,)8).0.+)9+9*1.
()*)+)+,)8).0.+)9+9*1.'.
)(+!"6"!##3$6$+!C6C!##3$6$)!#!3#$#3
-+.)+-.+!"6"!##3$6$+.8.;.
D)
解决方案:
结果发现两个日志有几乎相同的记录,可以确认 hbase 的问题是由 hadoop 引起,修改如下:
解决办法,调整 参数
默认是 2/34,改为 5637
*%)
$%&'
$)'dfs.datanode.max.transfer.threads$-)'
$'5637$-'
$-%&'
*%)参数说明
一个8"%有一个同时处理文件的上限这个参数叫 的
作者把这个单词拼错了在你加载之前,先确认下你有没有配置这个文件 *-*%) 里面
的 参数,至少要有 2/349
剩余10页未读,继续阅读
资源评论
- 阿星7772021-07-09没啥用,没解决我遇到的问题。
陆继森
- 粉丝: 33
- 资源: 5
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功