论文部分内容阅读
据ITRS预测,随着深微纳米技术的发展,2015年半导体器件的特征尺寸在接近达到25~35纳米的“极限”,并且单芯片内将能够集成几千上万IP核,时钟频率将达到10GHz。此时,传统以总线技术为主要特征的片上系统(System on Chip, SoC)在地址单元扩展、通讯带宽、系统时钟等方面面临巨大的瓶颈。此外,总线型拓扑结构将不能满足诸多片上应用对芯片能耗、延时、QoS等性能指标的要求。2001年左右,研究机构提出片上网络(Network on Chip, NoC),将计算机网络互连模式及并行计算模式应用到片上大量IP核的通讯互连上,解决了以上SoC所遇到的问题。NoC是当前片上技术研究的热点,也是SoC发展的趋势。NoC映射是当前NoC设计空间内的研究热点之一。不同的映射方案,得到的IP核通讯能耗及延时等性能不同。特别指出,随着NoC应用任务的规模变得庞大,且NoC的IP核异构性变得突出时,映射算法的适应性及算法性能将严重影响映射的效果,并最终影响NoC处理应用时的能耗等性能。因此,设计并实现具有高适应性,性能及效率良好的片上网络映射算法有较高的研究意义。论文介绍了NoC的研究背景及研究热点,比较分析了NoC拓扑结构、通讯协议、路由交换算法、应用配置模型,给出了相关特征图及多个映射优化指标函数模型。论文设计实现适合以上要求的多目标优化NoC映射算法。论文的主要研究内容如下:1.NoC应用配置模型研究及映射流程设计;2.设计实现基于带宽引导因子XY路由算法;3.提出实现了具有NoC映射的四个性能指标优化能力的两阶段微型遗算法TP-MGA,并设计实现并行TP-MGA,采用并行模型进一步提升TP-MGA算法的性能及效率,通过实验完成映射算法的比较分析。与当前其他多目标优化方法实验比较分析得出,本文提出的并行TP-MGA算法具有很高的效率和性能。