大数据量,海量数据 处理方法总结
大数据量的问题是很多面试笔试中经常出现的问题,比如 baidu google 腾讯 这样的一些涉及到海量
数据的公司经常会问到。
下面的方法是我对海量数据的处理方法进行了一个一般性的总结,当然这些方法可能并不能完全覆盖所有
的问题,但是这样的一些方法也基本可以处理绝大多数遇到的问题。下面的一些问题基本直接来源于公司
的面试笔试题目,方法不一定最优,如果你有更好的处理方法,欢迎与我讨论。
1.Bloom lter
适用范围:可以用来实现数据字典,进行数据的判重,或者集合求交集
基本原理及要点:
对 于原理来说很简单,位数组+k 个独立 hash 函数。将 hash 函数对应的值的位数组置 1,查找时如果
发现所有 hash 函数对应位都是 1 说明存在,很明显这 个过程并不保证查找的结果是 100%正确的。同
时也不支持删除一个已经插入的关键字,因为该关键字对应的位会牵动到其他的关键字。所以一个简单的
改进就是 counting Bloom lter,用一个 counter 数组代替位数组,就可以支持删除了。
还有一个比较重要的问题,如 何根据输入元素个数 n,确定位数组 m 的大小及 hash 函数个数。当
hash 函数个数 k=(ln2)*(m/n)时错误率最小。在错误率不大于 E 的情况 下,m 至少要等
于 n*lg(1/E)才能表示任意 n 个元素的集合。但 m 还应该更大些,因为还要保证 bit 数组里至少一半为
0,则 m 应 该>=nlg(1/E)*lge 大概就是 nlg(1/E)1.44 倍(lg 表示以 2 为底的对数)。
举个例子我们假设错误率为 0.01,则此时 m 应大概是 n 的 13 倍。这样 k 大概是 8 个。
注意这里 m 与 n 的单位不同,m 是 bit 为单位,而 n 则是以元素个数为单位(准确的说是不同元素的个
数)。通常单个元素的长度都是有很多 bit 的。所以使用 bloom lter 内存上通常都是节省的。
扩展:
Bloom lter 将集合中的元素映射到位数组中,用 k(k 为哈希函数个数)个映射位是否全 1 表示元素
在不在这个集合中。Counting bloom lter(CBF)将位数组中的每一位扩展为一个 counter,从
而支持了元素的删除操作。Spectral Bloom Filter(SBF)将其与集合元素的出现次数关联。SBF
采用 counter 中的最小值来近似表示元素的出现频率。
问题实例:给你 A,B 两个文件,各存放 50 亿条 URL,每条 URL 占用 64 字节,内存限制是 4G,让你
找出 A,B 文件共同的 URL。如果是三个乃至 n 个文件呢?
根 据这个问题我们来计算下内存的占用,4G=2^32 大概是 40 亿*8 大概是 340 亿,n=50 亿,如果
按出错率 0.01 算需要的大概是 650 亿个 bit。 现在可用的是 340 亿,相差并不多,这样可能会使出错
率上升些。另外如果这些 urlip 是一一对应的,就可以转换成 ip,则大大简单了。
2.Hashing