基于数据流架构的图计算高层次综合方法研究

来源 :华中科技大学 | 被引量 : 0次 | 上传用户:dxw2814
下载到本地 , 更方便阅读
声明 : 本文档内容版权归属内容提供方 , 如果您对本文有版权争议 , 可与客服联系进行内容授权或下架
论文部分内容阅读
图计算是大数据领域的主要处理模式之一,在生物信息网络、网页排名等领域有着广泛的应用。研究表明,图计算在传统中央处理器(Central Processing Unit,CPU)和图形处理器(Graphics Processing Unit,GPU)架构上存在着负载不均、不规则通信以及随机访存等突出问题,性能和能效水平受到较大影响。现场可编程门阵列(Field Programmable Gate Array,FPGA)因其低功耗、可重构的特性备受亲赖,是提升图计算效能的重要技术途径。众所周知,硬件代码的编写和验证十分耗时,尽管使用通用高层次综合(High Level Synthesis, HLS)系统可以从高层次描述自动生成硬件结构,但是对于图计算这种不规则算法,其仍缺乏有效的并行性和访存技术支撑,难以生成高效的硬件架构。
  提出一种基于数据流架构的图计算HLS方法,针对图计算随机访存、幂律分布以及嵌套循环等特性,从编程模型、中间层模块化数据流中间表示(Intermediate Representation,IR)和底层参数化硬件模板三个层次着手,采用了数据流架构实现高效的并行流水线,并进行关键技术支撑,保证处理单元的负载均衡。具体而言,通过自适应的点边信息传递机制实现对图计算任务负载的高度并行化处理,并且对不同度数节点的动态调度消除了负载不均;通过对片上存储的划分和对访存请求的调度控制,实现了对不同轮次访存请求的并行处理,提高了访存效率。提出的方法支持通过上层编程模型提供的函数式编程原语实现图算法的高层次描述,并将其转化为模块化数据流IR,进而映射到参数化硬件模板,可以实现高性能的图算法硬件代码。
  在XilinxUltraScale+VU9P上进行了实际部署,验证了方法的正确性和有效性,相比国际上典型的通用HLS系统Spatial,性能可提升7.9~30.6倍。
其他文献
与传统磁盘相比,基于闪存的固态盘(SSD)由于高性能、低延迟等特性已被广泛使用在消费类和企业级存储市场。影响固态盘性能的因素之一是盘内完成从逻辑地址到物理地址转换的地址映射算法。随着闪存容量的快速增长,受限于价格、工艺、能耗、体积以及可靠性等多因素影响,固态盘内置RAM的增长速度落后于闪存容量的增长速度,引起内置RAM大小不足,导致地址映射算法中映射缓存不命中和映射条目替换加剧,带来额外的闪存读写
学位
基于闪存的固态盘(NAND Flash-based Solid State Disk/Drive)因其低延时、低能耗、高抗震等特点被广泛应用在便携式设备、个人计算机及企业级存储系统中,并逐渐替代传统磁硬盘,在存储市场占据重要地位。固态盘控制器通过成对的写入/擦除操作改变闪存单元电压以存储数据,每对写入/擦除操作都会对闪存单元造成可累积的磨损。然而,闪存单元能够承受的磨损是有限的,一旦足量的闪存单元
学位
海量小文件会对分布式存储系统的读写性能产生极大影响。在分布式存储系统中,针对小文件读写性能的优化工作主要采用聚合和缓存预取机制,但仍存在以下问题:(1)现有的小文件聚合机制没有充分考虑小文件负载序列的时序特征,造成聚合块内文件关联度较低;(2)固定的聚合块大小不能适应小文件大小范围多变的特点,导致小文件写性能下降;(3)现有缓存替换算法没有综合考虑文件访问时间、访问频率以及缓存价值,导致小文件读取
深度卷积神经网络(Deep convolutional neural network,DCNN)常被用于处理机器视觉的任务,包括目标检测、场景标记等。DCNN具有计算量大、数据量大、模型结构复杂多样的特点,这些特点给异构加速带来挑战。目前,大多数DCNN加速器在有限的片上资源下,使用固化的数据流处理不同的DCNN模型计算,导致性能和能效下降。  针对上述问题,提出了兼顾能耗和性能优化的灵活的可重配
随着互联网的飞速发展,数据库的应用也越来越广泛,推动着数据库性能不断优化。数据库的查询优化是数据库性能优化研究的一个重要分支,其中表连接顺序的优化几乎是所有数据库查询优化器的核心,其目的是尽可能生成执行时间更短的查询计划。由于数据库代价模型、维护的统计数据的不准确,以及连接顺序搜索算法的局限性,现有的数据库管理系统经常会错过执行时间更短的表连接顺序。  针对上述问题,提出了一种基于机器学习和蒙特卡
新兴移动应用如虚拟现实/增强现实、车联网、人工智能、高速视频流等往往要求超低的服务延迟,传统的云计算服务架构难以满足日益严苛的用户需求。边缘计算通过将资源和服务向边缘下沉,以就近执行用户任务,可以有效缓解用户设备本地计算资源不足的问题,同时避免与远端云的数据传输,从而极大地降低服务延迟,已被视为未来网络的支撑性技术之一。  然而与远端云相比,边缘云计算资源仍是有限的。如何合理地选择任务进行卸载,并
学位
随着人工智能技术的发展,人们对对话系统的期待更多转移到沟通交流的需求。情感是影响人际沟通的重要因素,具备情感认知与表达的能力是智能的更高层级表现,其能够从更深层次理解与满足人类需求。然而目前大多数对话生成研究致力于提升回复的多样性与流畅性,忽略了情感表达的要求。融合情感认知的对话生成方法研究以对话中的情感信息为切入点,通过预测与表征对话文本中的情感信息,使对话系统具备情感感知的能力,然后将情感信息
学位
云计算是信息时代的重要发展趋势和国家重大发展战略。近年来,全球性的网络安全事件频发,而云环境由于虚拟机同质化等缺陷,用户隐私数据安全问题更加突出。在发生安全问题后,隐私侵犯取证成为大量企业和用户进行法律维权首要面临的难题。目前虚拟环境中隐私侵犯取证研究还不完善,主要存在两个问题:一是受限于特定或单一的指令集架构、操作系统或产品;二是细粒度的实时监控会给客户机带来过大的性能开销。  针对上述问题,虚
学位
RDF(Resource Description Framework)作为描述Web资源的标记语言,因其结构简单表达灵活的特性常用于表示图数据。SPARQL(Simple Protocol and RDF Query Language)是W3C(World Wide Web Consortium)推荐的标准RDF查询语言。随着RDF数据规模的急剧增长,如何高效响应SPARQL查询成为当前RDF图数
学位
内存计算系统(例如Spark)已经广泛用于处理工业界的海量数据。为了提高这些系统的计算效率和鲁棒性,系统开发人员为用户提供了许多高度可配置的参数。由于高维度的参数空间和复杂的参数交互作用,手工调优这些参数既耗时又低效。因此,用户急需一种内存计算系统的参数自动调优方法。目前参数自动调优常用的方法是基于机器学习的方法(Machine Learning-based, ML-based),ML-based
学位