云计算用户费用模型研究

来源 :2012全国高性能计算学术年会 | 被引量 : 0次 | 上传用户:tw2008hr
下载到本地 , 更方便阅读
声明 : 本文档内容版权归属内容提供方 , 如果您对本文有版权争议 , 可与客服联系进行内容授权或下架
论文部分内容阅读
  虽然云计算在科学计算和互联网应用上已经取得了很大的收益,但是由于规模庞大,不论是其拥者还是用户都将节省开销作为首要目标。然而,相关工作大多只考虑了拥有者的运营开销,而没有探讨云用户的费用。本文创新性地利用Amdahl定律提出了云计算用户的平均费用模型,通过该模型从本质上揭示了云计算中用户费用与租用的服务器数目、任务到达速率、任务的并行性以及服务器处理能力之间定量关系,对用户租用云计算系统服务器的方式具有一定的指导意义。
其他文献
针对传统的并行Delaunay 网格生成方法在将子域映射到处理器上时没有考虑子域间的邻接关系,单个处理器上生成得到的子网格通常由多个不相邻的子域网格构成以及子网格之间共享节点数目庞大等问题,本文通过引入加密圈,采用几何区域分解策略给出一种改进的并行Delaunay 网格的生成算法。将复杂的二维几何区域分解成若干个子域,利用OpenMP 相关技术将子域动态的分配到各个不同的处理器上,同时对每个子域调
连续的数据无关是指计算目标矩阵连续的元素时使用的源矩阵元素之间没有关系且也为连续的,访存密集型是指函数的计算量较小,但是有大量的数据传输操作.本文在OpenCL框架下,以bitwise函数为例,研究和实现了连续数据无关访存密集型函数在GPU平台上的并行与优化.在考察了向量化、线程组织方式和指令选择优化等多个优化角度在不同的GPU硬件平台上对性能的影响之后,实现了这个函数的跨平台性能移植.实验结果表
身份认证技术作为信息安全门户之一,对于提高网络通信安全性具有重要意义。传统身份认证技术在通信过程中会直接或间接地传输用户相关的机密信息,由于认证系统本身存在漏洞,并且反制技术逐步升级,这些信息很容易被泄露或窃取。本文参照噪声引导的二维超混沌同步方程,设计实现了一种新型的身份认证模型,可以在认证通信中仅传输随机噪声信号,不发送密钥或口令,从而避免被泄露或窃取。分别在FPGA和PC上实现了同步算法,构
提出一种基于云模型和支持向量机(Support Vector Machine,SVM)的入侵检测特征选择方法,该方法采用逆向云发生器从真实训练数据中得到云的数字特征,形成实际判断规则,实现正常数据建模,把网络入侵检测正确率作为SVM 参数优化目标函数,以提高入侵检测的正确率。在KDDCUP1999 数据集上进行仿真实验,结果表明该方法能更有效地精简网络数据特征,能够有效地解决入侵检测中存在的特征选
面向大规模工程计算,JASMIN 框架在并行使能技术和数值算法上进行了发展和完善.2.0 版JASMIN 框架保持编程接口兼容,无需用户修改程序,可直接提升已有程序的并行可扩展能力.JASMIN 框架在曙光6000等多台高性能计算机上的成功安装表明,JASMIN 可直接在不同架构的高性能计算机上移植使用.为考察应用程序在JASMIN 框架支撑下的并行可扩展能力,在曙光6000 超级计算机上测试和分
设计并实现了一种面向多OS的资源分区系统-KMON (Kernel Monitor).KMON将VMM( Virtual Machine Monitor)从原有虚拟机系统层次中抽离出来作为一个能够独立执行的程序,仅负责资源的分配管理与客户OS的加载启动,从而极大的精简了客户OS敏感指令的虚拟化任务.实验表明,KMON原型系统中的客户OS在各项指标中与原始OS相近,基本消除了虚拟化的性能开销,达到了
提出一种面向大规模同时多线程处理器可扩展高速缓存的动态划分方法.将文献所提的机制扩展到多体高速缓存中.线程的内存访问特征变化迅速,因此在运行时收集同时多线程的缺失率特征,依此特征在线程间划分高速缓存.实验结果显示,相对于非划分的具有标准LRU替换策略的高速缓存,本文提出的划分方法能够IPC达18.94%.
在近几年中,研究人员已经开始越来越重视集群中的功率消耗控制,众多研究人员都致力于功率消耗的降低与节约,然而能耗的管理比单纯的能耗的节约昱得更加的重要。在本文中,将功率看成是可以管理和调度的资源之一。本文设计与实现了两种应用于HDFS、有效控制与预测功率的算法和策略,结合给每个节点设置功率预算的方法,实现功率的非均衡的动态分配以达到控制整个集群功率消耗,用以限制能耗消耗。此外,本文还通过逐步线性回归
现有GPU加速的高性能Linpack 基准测试程序(HPL)一般采用基于实际运算能力的动态负载均衡算法来实现.然而该算法在单节点多GPU的平台上表现不佳,其原因是单节点多GPU平台上单个GPU计算量小,并且GPU与CPU 的总性能差距较大.为此,本文提出了经验指导的动态负载均衡算法以及多GPU 自适应负载均衡算法,并且在单节点多GPU 平台上进行验证,对比现有基于NVIDIA 费米GPU 的HPL
在蛋白质三级结构预测领域,基于蛋白质采样信息的结构预测方法是一种应用比较成功的方法,但是随着蛋白质数据库的增大,对计算能力的需求也越来越高,限制了这种方法的使用。随着FPGA芯片资源和计算能力的不断提高,基于FPGA芯片的硬件加速器已经成为加速蛋白质三级结构预测算法的理想平台。本文在分析蛋白质三级结构预测程序BackboneDBN的计算特征的基础上,设计并实现了一个基于FPGA平台的算法加速器,通