没有合适的资源?快使用搜索试试~ 我知道了~
针对命名数据网转发信息库(Forwarding Information Base,FIB)快速检索差异化名称数据、高效存储转发信息和有效支持最长名称前缀匹配机制的需求和挑战,首次提出了基于神经网络的命名数据网学习型FIB整体方案,称L-FIB。首先,介绍了L-FIB的索引结构Learning Tree,通过使用塔式两级神经网络模型学习索引内容在存储器中的分布情况,实现更均匀的数据映射,降低映射冲突,提高存储效率。其次,研究了L-FIB的存储结构和名称数据检索算法,片内高速存储器部署多个与不同名称前缀组件数相对应的索引结构Learning Tree,片外低速存储器部署多个与索引结构Learning Tree对应的FIB存储池,并通过相应的名称数据检索算法实现对兴趣包的转发信息检索和转发信息更新操作,有效支持了命名数据网的最长名称前缀匹配机制,提高了名称数据检索速度。实验结果表明,L-FIB在误判概率、存储消耗和吞吐量方面的综合性能明显优于其他对比方案。在误判概率低于1%的条件下,L-FIB的索引结构存储消耗仅为58.258MB,能够部署于高速存储器SRAM上。L-FIB的实际吞吐量约为1
资源推荐
资源详情
资源评论
第**卷 第*期
201*年*月
天津大学学报(自然科学与工程技术版)
Journal of Tianjin University(Science and Technology)
Vol. ** No. *
*.
201*
收稿日期:201*-**-**;修回日期:201*-**-**.
作者简介:刘开华(1956— ),男,博士,教授,liukaihua@tju.edu.cn.
通讯作者:李 卓,zli@tju.edu.cn.
基金项目:国家自然科学基金资助项目(61602346).
Supported by the National Natural Science Foundation of China(No. 61602346).
基于神经网络的命名数据网学习型 FIB 研究
刘开华,闫 柳,李 卓,宫霄霖,彭 鹏,王彬志
(天津大学微电子学院,天津 300072)
摘 要:针对命名数据网转发信息库(Forwarding Information Base,FIB)快速检索差异化名称数据、高效存储转
发信息和有效支持最长名称前缀匹配机制的需求和挑战,首次提出了基于神经网络的命名数据网学习型FIB整体方
案,称L-FIB。首先,介绍了L-FIB的索引结构Learning Tree,通过使用塔式两级神经网络模型学习索引内容在存储
器中的分布情况,实现更均匀的数据映射,降低映射冲突,提高存储效率。其次,研究了L-FIB的存储结构和名称
数据检索算法,片内高速存储器部署多个与不同名称前缀组件数相对应的索引结构Learning Tree,片外低速存储器
部署多个与索引结构Learning Tree对应的FIB存储池,并通过相应的名称数据检索算法实现对兴趣包的转发信息检索
和转发信息更新操作,有效支持了命名数据网的最长名称前缀匹配机制,提高了名称数据检索速度。实验结果表
明,L-FIB在误判概率、存储消耗和吞吐量方面的综合性能明显优于其他对比方案。在误判概率低于1%的条件下,
L-FIB的索引结构存储消耗仅为58.258MB,能够部署于高速存储器SRAM上。L-FIB的实际吞吐量约为1,164万数据包
/秒,可以满足当前命名数据网对数据包快速处理的要求。
关键词:命名数据网;转发信息库;神经网络;名称数据检索
中图分类号:TP393.0 文献标志码:A 文章编号:0493-2137(201*)00-0000-00
A Learning Forwarding Information Base for Named Data Networking
with Neural Networks
Liu Kaihua,Yan L iu ,Li Zhuo,Gong Xiaolin,Peng Peng,Wang Binzhi
(School of Microelectronics,Tianjin University,Tianjin 300072,China)
Abstract:Designing an effective Forwarding Information Base (FIB) for Named Data Networking (NDN) is a major
challenge within the overall NDN research area, since FIB has to perform fast lookup for complex names, provide high
capacity and accurately support the mechanism of Longest Name Prefix Matching (LNPM). Therefore, a learning FIB
based on neural networks, called L-FIB, was proposed. First, the index of L-FIB, named Learning Tree, uses a two-
level neural network model to learn the distribution characteristic of data indexed in static memory, which achieves
more uniform mapping, reduces the false positive probability and improves the memory utilization. Second, the stor-
age structure and name lookup algorithms of L-FIB were put forward. T
he on-chip memory using SRAMs deploys
multiple Learning Trees corresponding to the name prefixes with different numbers of components, while the
off-chip memory using DRAMs deploys multiple FIB stores corresponding to the Learning Trees. The name
lookup algorithms were also described to implement the retrieval of forwarding information for the Interes
t
packets and the update of forwarding information, which
can well support the LNPM mechanism and realize fast
name lookup. Experimental results show that the overall performance of L-FIB is superior to the comparison schemes
in terms of the false positive probability, the memory consumption and the throughput. The index of L-FIB can ex-
tremely reduce the memory consumption to 58.258MB with the probability of false positive under 1%, which means i
t
·2· 天津大学学报(自然科学与工程技术版) 第**卷 第*期
can be deployed on SRAMs in commercial line card. The throughput of L-FIB is about 11.64 million packets per sec-
ond, which
well meets the current network requirement for fast packet processing.
Keywords:Named Data Networking;Forwarding Information Base;neural network;name lookup
互联网规模的不断扩大,虚拟现实、全息通
信、高清视频传输
[1]
等全新应用在传统行业的不断
呈现,加速了互联网由“通信信道”向“数据处理
平台”的角色转变
[2]
。为了应对互联网内容化、个
性化等未来业务需求,国内外许多研究机构都在积
极探索未来互联网架构的革新问题。作为未来互联
网架构的一个典型范例,命名数据网(Named Data
Networking,NDN)
[3]
于 2010 年被提出,其不仅可
以通过使用名称数据,实现互联网面向内容的通信
模式;而且可以通过在网络节点部署内容存储池,
实现真正意义上的内容共享,极大地降低网络的负
载
[4]
。因此,命名数据网被认为是非常具有应用前
景的未来互联网架构之一。
在命名数据网中,所有通信均由消费者驱动,
通过交换包含名称标识的兴趣包和数据包实现
[5]
。
为了请求所需数据,消费者首先向网络发送一个兴
趣包,路由器记录兴趣包的传入接口,并利用兴趣
包的名称根据转发信息库(Forwarding Information
Base,FIB)
[3]
转发,直至到达含有相应数据包的网
络节点,将该数据包发回给消费者
[6]
。因此,FIB 的
设计直接关系到命名数据网转发平面的工作性能。
然而,由于内容名称不同于 IP 地址的诸多特征,命
名数据网的 FIB 研究面临着一系列亟待解决的问题
和挑战。其一,FIB 以名称字符串为索引主键,具
有变长、无边界的基本特点
[3]
,且内容名称在不同
应用场景下极具个性化
[5]
,如何支持差异化名称快
速检索成为公认的难题。其二,FIB 条目数可达百
万级别
[7]
,且需要更多的存储空间来记录远比 IP 地
址复杂的内容名称及转发信息,如何高效地将转发
信息存储在有限的内存中是一个极具挑战的问题。
其三,命名数据网 FIB 具有不同于 IP 网络的最长名
称前缀匹配(Longest Name Prefix Matching ,
LNPM)
[6]
机制,如何支持这种机制仍是有待解决的
问题。
自 2010 年命名数据网被提出以来,转发平面
FIB 的研究和设计引起了国内外学术界的广泛关
注。目前针对 FIB 的设计方案主要基于 Trie、哈希
表和 Bloom filter 三种数据结构
[6]
。例如,Ghasemi
等
[8]
提出 NameTrie 方案,通过 ASCII 优化来高效存
储转发信息;Dai 等
[9]
提出 CONSERT 方案,通过删
除冗余来减少名称前缀数量;Lee 等
[10]
提出 PC-NPT
方案,通过路径压缩来优化查找速度;Song 等
[11]
提
出 Binary Patricia Trie 方案,通过使用比特级编码以
支持变长名称数据检索和路由表增量更新;Yu a n
[12]
提出 FHT 方案,利用指纹技术来压缩存储;Yu an
等
[13]
提出 Binary Search 方案,通过二分查找来提高
名称数据检索效率;Wang 等
[14]
提出 NameFilter 方
案,提出将 Bloom filter 部署于路由器每个端口;
Dai 等
[15]
提出 BFAST 方案,将 Bloom filter 与哈希
表组合以映射数据地址;Li 等
[16][17]
提出 MaFIB 和
B-MaFIB 方案,将 Bloom filter 与定位数组和
Bitmap 组合以实现数据映射。但是,目前提出的
FIB 设计方案难以很好地兼顾存储消耗和名称检索
速度,且未充分考虑如何有效支持差异化名称检索
和 LNPM 机制
[6]
。因此,急需提出新的解决思路,
设计新颖的 FIB 整体解决方案,以充分应对上述问
题和挑战。
针对上述挑战和研究现状,本文首次提出了基
于神经网络的命名数据网学习型 FIB 整体方案,称
L-FIB。首先,对 L-FIB 的索引结构 Learning Tree 展
开介绍,通过使用塔式两级神经网络模型学习索引
内容在存储器中的分布情况,实现更均匀的数据映
射,降低映射冲突,提高存储效率。其次,对 L-
FIB 的存储结构和名称数据检索算法进行设计,通
过采用多个 Learning Tree 和多级存储器的部署模
式,有效支持命名数据网的 LNPM 机制,并提高名
称数据的检索速度。实验结果表明,L-FIB 在误判
概率、存储消耗和吞吐量方面的综合性能明显优于
其他对比方案。
1 FIB 的设计要素
与 IP 网络不同,命名数据网 FIB 中每个条目的
内容为:<name prefix, stale time, interface ID, routing
preference, RTT, status, rate limit >
[7]
。每次转发兴趣
包,都需要根据兴趣包的内容名称在 FIB 中检索相
应的转发信息。因此,FIB 的设计要素包含三点:
索引结构,存储结构和数据检索算法
[18]
。
1.1 索引结构
命名数据网 FIB 索引的主键是变长、无边界的
名称字符串,比固定长度的 IP 地址更加复杂
[3]
。应
用驱动的数据命名规则,不但使内容名称在不同应
用场景下极具个性化
[5]
,更使转发平面 FIB 条目数
可达超百万级别
[7]
。此外,每次转发兴趣包或 FIB
更新时,都需要使用相应的名称以实用的高速在
剩余7页未读,继续阅读
资源评论
weixin_38609693
- 粉丝: 8
- 资源: 961
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功