论文部分内容阅读
起步于20世纪五十年代的人工智能技术,在经历了多半个世纪的理论和技术的沉淀之后,迎来了现阶段人工智能技术井喷式的发展,人工智能技术的应用领域也获得了极大的拓展。人工智能技术的应用和发展在极大改变人类社会生活的同时,也存在着一系列的社会伦理风险。人工智能技术对于人类社会的发展究竟会产生什么样的影响,如何从社会伦理学的角度来规范人工智能技术的发展和应用,人工智能技术发展的伦理边界应该如何界定等问题逐渐成为了当前社会人工智能发展的前沿问题。对于上述问题答案的探寻已经成为应用伦理学界、自然科学界和各国政府、相关国际组织研究的重要课题。本文尝试以人工智能技术发展中存在的社会伦理风险为切入点,重点研究论述了人工智能的伦理发展原则和审查机制,试图寻求一条规范人工智能技术发展的路径。首先,结合现阶段人工智能技术的发展和应用的现状,其存在的社会伦理风险主要有:人工智能产品引发的安全问题、人工智能产品社会属性的定位问题、人工智能产品应用产生的过错归责问题、人工智能产品引发的社会公平正义问题。通过对上述问题的综合比较分析,我们可以找到这些伦理风险问题背后的原因主要包括:人工智能技术自身不成熟、行业规范标准还不够完善、社会法律法规的不完备性、社会伦理原则的发展滞后、社会公众的认知程度较低等。其次,本文通过人工智能发展原则的代表——阿西洛马原则和中国的人工智能发展六大原则的评析总结出人工智能发展应该坚持的价值取向:辅助服务原则,安全发展原则,循序渐进原则,权责一致原则。而这些价值取向应是人工智能发展的基本原则,同样也是人类社会对于人工智能技术发展的诉求期望。最后,旨在通过对人工智能伦理审查机制的内涵、建立的意义以及组织的建构的论述,以此来应对当前人工智能应用存在的社会伦理风险问题。建立伦理审查机制我们首先得了解伦理审查的内涵,将人工智能伦理审查机制的内涵分解为伦理审查的目的、伦理审查的阶段和伦理审查的依据三个维度去分析。在明确人工智能伦理审查机制的内涵后,本文又从界定人工智能发展领域和引导人工智能发展方向两个层面分析了人工智能审查机制建立的意义。伦理审查机制的建立不仅需要理论的论证,更需要依托相关的机构开展伦理审查的社会实践。本文又从人工智能伦理审查机构的组织形式、审查机构的人员构成和审查机构的权力和义务对人工智能伦理审查机构的建立进行了综合性的论述。