论文部分内容阅读
在新兴科技领域中,人工智能作为一项技术成为了未来科技发展的主要方向,机器人则是这项技术最直接的受用者,从人工智能技术的发展朝向来看,人工智能技术更加强调研究和开发模拟诸如人类情感、学习等方面的能力。机器人在植入这种人工智能技术之后也意味着将拥有越来越多的自主性,人类在决策方面的参与度将逐渐减少。人工智能技术革新了人类的生活方式,在一些领域的发展和改变上都让我们惊叹。但是从目前已应用这项技术的领域来看,其产生的问题也需要我们重视起来。比如自主驾驶系统的汽车在发生交通事故时,责任应该由谁承担?现实中确实也已发生过这样的交通事故案例,人们的关注度也普遍集中在这些事故中责任归属的问题上。一些学者认为机器人可以作为人工道德行动者,而一些学者则对此持反对观点。那些反对人工道德行动者的学者认为,作为道德行动者需要满足所应该具备的特定条件,比如具有意识、理性、自由意志。而这些都是人作为道德行动者所拥有的,机器并不拥有人类所特有的这些能力。那些支持人工道德行动者的学者更为关注行动者所产生的行为结果,只要其能够产生相似的行为,便认为它们就拥有这些条件。反对者从人作为道德行动者所应具备的条件展开探讨,强调了拥有这些条件是作为道德行动者的充分必要条件。支持者则并不重视这些条件,甚至从更现实的角度阐述自主机器人在决策时脱离了人所能控制的范围,在责任事故或道德过失中,也应该负有责任。基于此,本文拟赋予机器人以准道德行动者,主张其应承担道德准责任。这种准道德行动者类似于未成年人这样的角色。作为一个负有准道德责任的行动者,我们必须要保证这种自主系统其行为尽可能是趋于“善”的,以此来保障人类的安全性、避免产生过多道德责任问题。在确定自主机器人是准道德行动者之后,围绕其进行伦理建构就显得至关重要。首先,这里涉及“自上而下”的建构方法,不管是借用功利主义还是义务论作为机器人伦理设计的理论指导,在计算中,都会面临诸多现实性问题,我们很难将他们理想化。其次,这里涉及“自下而上”的建构方法,其可跳过复杂的编程,赋予机器人学习的能力,使其能够自我发展进化,在不断学习的过程中完成自我纠错,从而摆脱“自上而下”建构方法中所带来的困惑,但这种构建方法也存在不安全因素。因为,没有一个具体标准限制机器人在学习过程中的不断“变异”和“复制”。最后,“混合模式”的建构方法是将以上两种方法中的优缺点进行结合和补充,美德伦理学则为这种“混合模式”的建构方法提供了一个接点。因此,“混合模式”的建构方法显得更加合理和有效。当然,对机器人进行有效的伦理设计是要尽可能确保这种自主机器人的安全性和可靠性,但相关的责任人也应该承担起自己相应的责任。鉴于我们之前的探讨和自主性机器人可能带来的社会影响及规范责任归属问题,我们还可以从政府管理部门、科技人员、人文学者、企业家和使用者几个维度,探讨“准责任”的归属对象。因为他们在机器人的批准、研发、生产和使用上都承担着相应责任。