论文部分内容阅读
随着人们对微观世界探索的不断深入,从二十世纪五十年代至今,大量微观粒子在实验上被发现,并且人类发展出来了几乎可以解释我们当今所观测到的一切微观现象的标准模型理论。然而,人们对于自然的探索并没有结束,还有很多问题等待着我们去解决,例如,物质为什么会有质量,如何统一强作用力与引力的相互作用。
预计2007年完工的欧洲核子中心(CERN)的大型强子对撞机(Large Hadron Collider,简称LHC)就是为了这些问题的解决而诞生的。然而LHC要产生的数据量极大,存储和分析这些数据成为一个巨大的挑战。
为了解决这一难题,人们引入一个全新的数据存储和处理的全球分布式模型——计算网格(Computing Grid)——来完成这个要求。而LCG(LHC Computing Grid),就是以专门为这些参与LHC数据分析工作的高能物理科学家们建造并维护一个数据存储和分析的平台为目的而建造的。
LCG使用一个四级(four-tiered)的分布式模型来为LHC上各实验提供网格计算服务。主要包括位于CERN的一个Tier-0(零级)站点,分布于全球的数十个Tier-1(一级)站点和数百个Tier-2(二级)站点所组成。
分布式计算在LHC中的应用,具有重大的意义。首先,分布式计算,为人们节省了大量开支,参加LHC实验的全世界各研究单位以及国家组织负责投资建设并维护其本地计算资源,这些计算资源除了各单位自身使用以外,还为全球网格系统贡献计算资源。其次,在分布式系统中,某一点的失败或错误不会对整体带来影响。
山东大学于1998年正式参加ATLAS合作组,承担了400台TGC探测器的研制任务,并于2004年底完工。从2003年开始,山东大学也在为将来的数据分析工作做准备。山东大学与中科院高能物理所、北京大学联合申请了国家自然科学基金委的《国家科研网络综合平台下的高能物理网格实验床系统的建设》项目。在这项资助下,建设了一个LCG的二级站点SDU-LCG2,使其加入到全球的LCG网格体系中,并将ATLAS实验数据分析所需的软件配备到该站点中。本论文描述了山东大学为将来的ATLAS实验数据分析所做的前期准备工作。包括:SDU-LCG2站点的建设,将ATLAS离线分析软件配备到该站点中的使其能够正常工作。
另外,本论文还包括利用加州理工大学的MonALISA(MONitoringAgents using a Large Integrated Services Architecture)框架对SDU-LCG2站点进行的实时监测。MonALISA框架提供了一个优秀的图形监测界面,目前该框架已在欧美多个网格项目中普遍使用,而在中国大陆地区,这是第一个使用该框架进行站点监测的实例。