从行业角度看人工智能治理与伦理问题

来源 :中国知识产权 | 被引量 : 0次 | 上传用户:huweiboweb
下载到本地 , 更方便阅读
声明 : 本文档内容版权归属内容提供方 , 如果您对本文有版权争议 , 可与客服联系进行内容授权或下架
论文部分内容阅读
  人工智能法律问题的三个层面
  近年来,人工智能技术发展取得了极大的进步,在一些领域甚至超越了人类自身的认知能力。人工智能也从一个纯粹的技术领域,一跃成为社会各界共同关注的话题。各国纷纷出台人工智能战略,加强顶层设计,人工智能由此成为国际竞争的新焦点。人工智能的跨学科研究迅速兴起,尤其是国内的法学界出现了人工智能法律研究的热潮,但却没有学者尝试从法律上对人工智能的概念进行界定,导致各种研究缺乏统一的认知基础。此外,社会公众由于对人工智能技术缺乏足够的了解,生发了人工智能取代人类工作、超级智能威胁人类生存等担忧。
  那么,人工智能法律能否成为一门显学?现在又有哪些新的问题需要研究和应对?对此,微软总法律顾问Brad Smith曾有精辟论述。他写道,未来会产生所谓的“人工智能法律”这一全新的法律领域吗?今天,人工智能法律和1998年隐私法刚兴起时的境况差不多。一些既有的法律已经适用于人工智能,尤其是侵权法和隐私法。在一些特定的领域比如自动驾驶汽车等,开始出现新的监管。但是,人工智能法律尚未作为一个独立的领域存在。到2038年的时候,我敢肯定这一状况将有所改变。到那时,不仅有从事人工智能法律的执业律师,而且这些律师和其他所有律师都将依赖人工智能来辅助其执业。因此,真正的问题不是是否会出现人工智能法律,而是其如何出现,以及在什么期限内出现。
  这一预测在某种程度上可以给当前的人工智能法律研究背书,即学者的研究并非镜花水月、空中楼阁,而是服务于未来将可能产生的一个全新的法律领域。综观目前的人工智能法律研究,主要存在法律人格、正义与平等、安全与认证、隐私与权力、责任、知识产权归属、竞争与消费者保护、人工智能产品监管、自主武器等九个主题,这些主题可被抽象为以下三个层面:
  其一,权利的挑战。在以机器学习为代表的现代人工智能系统出现之前,人类是这个星球上唯一具有行为能力的主体,国家和公司作为法律上拟制的人,其自身不具有行为能力,需要由人类主体来代表。人工智能,作为通过一个评估过程自主作出选择的非自然实体(即机器),开始表现出像人一样的行为能力,例如达成交易、批准贷款、驾驶汽车、创作内容等等。因此,它一方面带来主体地位的挑战,另一方面带来创造成果归属和保护的挑战。
  其二,责任的挑战。以自动驾驶为例,其自主性和不可预测性斩断了人类与事故之间的因果关系。
  其三,伦理的挑战。体现为两个方面:一是技术应用的边界问题,例如将人工智能应用于人类增强或者武器和战争的限度在哪里;二是技术发展可能改变人类伦理,依然以自动驾驶汽车为例,随着自动驾驶系统的安全性能不断提高,当其显著超越人类驾驶水平之时,是否有必要重新考虑人类驾驶汽车活动的道德性。
  人工智能治理的三点认知
  在计算机与信息技术的发展史上,网络法经历了三次重大转变,每个阶段都有其特殊的问题,并产生了相应的法律规制。
  第一阶段的關注焦点是计算机,各国围绕计算机的安全、犯罪、欺诈、滥用等问题制定了一系列法律,这个阶段的典型立法包括美国1984年的《计算机欺诈与滥用法案》等。互联网兴起之后,网络法发展到
  第二阶段,在信息大爆炸趋势下,信息成为关注焦点,法律规制围绕信息的隐私、保护、传播、滥用等问题展开,这个阶段的立法包括欧盟1995年的《个人数据保护指令》、美国1996年的《通信规范法》等。当前,网络法已经发展到了第三阶段,作为关注焦点的数据和人工智能算法带来新的问题,预计将出现一系列人工智能法律,例如欧盟的《通用数据保护条例》(GDPR)已经针对人工智能应用进行了制度安排,欧盟议会发布的《算法责任与透明治理框架》则在考虑建立算法治理框架。
  就人工智能治理而言,本文提出以下三点认知:
  其一,数据保护方面,明确企业间数据获取与利用的基本规则,加强对企业数据资产及其合法利益的保护。
  人工智能的发展应用离不开数据,数据已经成为“新石油”,只有加强保护企业数据权益,才能为人工智能创新发展提供坚实的基础。我国法院在诸多涉及数据获取与利用的不正当竞争案件中,认为企业对其投入劳动采集、加工、整理、生成的数据享有财产性权益,典型的案件包括阳光诉霸才,大众点评诉爱帮网,钢联诉纵横、拓迪,大众点评诉百度,微博诉脉脉,酷米客诉车来了,淘宝诉美景,同花顺公司诉灯塔公司等。其实早在International NewsService诉Associated Press—案中,美国最高法院就认为,信息、设计等无形物可以因劳动、金钱等投入而产生一种“准财产权”(quasi-property right),从而可以基于反不正当竞争法禁止他人不当盗用。
  根据国内外相关司法判例,不当获取与利用数据主要有两种方式:一是未经许可或超出许可,采取侵入的方式获取非公开数据,通常表现为侵入服务器、破解或规避技术措施或者使用他人ID、密码等;
  二是釆取爬虫等手段复制、抓取数据,一般针对公开数据。根据前述判例,法院在认定这些行为的不正当性时,一般采取两个测试标准:一是实质替代标准,即将获取的数据用于足以产生替代效果的竞争性产品、服务,此标准主要体现在大众点评系列案件中。二是正当商业利益标准,其出发点是企业对其投入劳动搜集、获取、加工、整理、生成的数据和数据产品,享有竞争法上的财产性利益,他人未经授权予以利用具有不正当性。例如,在奋韩网诉58同城案中,法院认定58同城网站伪装个人名义在网站上发布复制于奋韩网的侵权信息,未付出相应劳动即将他人成果据为己有,其行为掠夺了奋韩网流量、影响经营利益,严重损害了韩华公司的合法权益,违背诚实信用原则及公认的商业道德,构成不正当竞争。
  其二,人工智能治理方面,考虑采取包容审慎、灵活有弹性的规制方式。
  一方面,需要为自动驾驶汽车等人工智能新事物革除既有的监管法律政策障碍,例如关于驾驶人的法律要求、高速公路测试限制等,避免过时的法律要求阻碍人工智能创新发展。因为随着人工智能技术持续渗透到各行各业,带来新的产品和服务,未来新事物与旧制度的冲突会越来越多,呼吁监管法律政策的革新和创新。另一方面,由于技术以及商业模式快速发展和迭代,草率的立法不可能期待会产生正面的效果,而且成文或专门的立法恐难跟上技术步伐,故应避免严格、细致的法律要求,而是可以釆取事后监管、追责或者通过出台标准、行业公约、伦理框架、最佳实践、技术指南等“软法”性质的规范,来调整人工智能的发展应用,支持行业自律。这意味着敏捷灵活的政策路径,例如在中国国家新一代人工智能治理专业委员   会于2019年6月17日发布的《新一代人工智能治理原则——发展负责任的人工智能》中,也提出了敏捷治理的原则。
  更进一步,作为对技术应用的“软法”规制,可以通过科技伦理来对科技行业狭隘的技术向度和利益局限进行纠偏和矫正。因此,需要通过预警性思考、广泛的社会参与和多学科评估,来充分讨论可能存在的风险和危害,制定出切实可行的指导方针和伦理准则,来引导、规范人工智能研发应用,以更好地应对人工智能应用可能引发的社会治理危机。
  其三,算法透明与责任方面,应根据人工智能技术特征和复杂性,追求有意义的透明。
  具体而言,技术透明不是对算法的每一个步骤、算法的技术原理和实现细节进行解释,简单公开算法系统的源代码也不能提供有效的透明度,反倒可能威胁数据隐私或影响技术安全应用。考虑到AI的技术特征,理解AI系统整体是异常困难的,对理解AI作出的某个特定决策也收效甚微。因此,对于现代AI系统,通过解释某个结果如何得出而实现透明,将面临巨大的技术挑战,也会极大限制AI的应用;相反,在AI系统的行为和决策上实现有效透明,会更可取,也能提供显著的效益。例如,考虑到人工智能的技术特征,GDPR并没有要求对特定自动化决策进行解释,而仅要求提供关于内在逻辑的有意义的信息,并解释自动化决策的重要性和预想的后果。在具体落地层面,根据欧盟议会的《算法责任与透明治理框架》,对于政府和公共部门使用的算法系统,可考虑建立“算法影响评估”(AIA)机制;但不宜针对商业领域的所有算法系统应用都建立算法影响评估机制,因为这将给企业带来不成比例的财务和管理负担。相反地,可考虑建立分级监管机制,即对于那些具有与政府和公共部门的算法系统应用相似的重大影响的商业算法系统,可以考虑采取AI A机制;而对于其他商业算法系统,则采取事后追究法律责任的机制。
  科技共同体承担伦理责任践行“科技向善”
  华裔A I科学家李飞飞在推动成立“斯坦福以人为本的人工智能研究院”(Stanford Institute for Human-Centered Artificial Intelligence)时表示,现在迫切需要让伦理成为人工智能研究与發展的根本组成部分。显然,在当前的人工智能技术背景下,我们比历史上任何时候都更加需要注重技术与伦理的平衡。原因有二:一方面,技术意味着速度和效率,应发挥好技术的无限潜力,善用技术追求效率,创造社会和经济效益;另一方面,人性意味着深度和价值,要追求人性,维护人类价值和自我实现,避免技术发展和应用突破人类伦理底线。只有保持警醒和敬畏,在以效率为准绳的“技术算法”和以伦理为准绳的“人性算法”之间实现平衡,才能确保“科技向善”。
  因此,企业不能只顾财务表现,只追求经济利益,还必须肩负社会责任,追求社会效益,服务于好的社会目的和社会福祉,给社会带来积极贡献,实现利益与价值的统一。在这方面,国内外的科技公司开始主动承担伦理责任,一方面注重技术应用的广泛社会影响,另一方面积极采取措施,避免技术被滥用和恶用。例如,谷歌、微软等都提出了其研发和应用人工智能所要遵循的伦理原则;DeepMind成立了专门的伦理与社会部门,在技术研发投入之外,积极应对人工智能技术可能带来的伦理与社会问题;此外,技术伦理委员会日益受到科技行业的青睐,科技公司开始采取多学科评估的方式,来把脉、约束人工智能研发应用。
  在国内,以腾讯为例,自2018年1月在国内首次提出“科技向善”以来,腾讯已将“科技向善”作为新的愿景与使命,并积极践行“科技向善”理念。例如,将人工智能应用于医疗健康领域,致力于打造“救命的AI”;将计算机视觉技术应用于失踪人口寻找,协助警方打拐寻人,包括基于“跨年龄人脸识别”助力警方寻回被拐十年儿童,这在采用人工智能之前单纯地依靠人力是几乎不可能实现的;发起FEW项目,将人工智能应用于食物、能源和水资源(FEW),致力于解决人类所面临的最大挑战。此外,在今年3月提交的建议案《关于加强科技伦理建设践行科技向善理念的建议》中,全国人大代表、腾讯董事会主席兼首席执行官马化腾呼吁,在全社会、全行业积极倡导“科技向善”“负责任创新” “创新与伦理并重”等理念,并建议加强科技伦理的制度化建设,加强科技伦理的教育宣传。
  最后作为总结,现代数字技术与经济社会正以异乎寻常的速度整合和相互建构,但其高度的专业化、知识化和技术化,使圈外人很难对其中的风险和不确定性有准确的认知和判断,没有来自科技共同体内部的风险预警和自我反思,任何一种社会治理模式都很难奏效。因此,只有通过科技伦理教育宣传,增进科研人员和社会公众在伦理上的自觉,使其不仅仅考虑狭隘的经济利益,而且对技术发展应用的潜在影响及其防范进行反思和预警性思考(precautionary thinking),才有可能通过广泛社会参与和跨学科研究评估的方式,来实现对人工智能前沿技术的良好治理。
其他文献
2019年5月31日,德国专利商标局(Deutsches Patent—und Markenamt,简称DPMA)在其官网公布了2018年度报告。此次年度报告的主要内容摘选如下:  德国发明专利  2018年度DPMA受理发明专利申请案件总量较上一年度略有上升,共计67895件,其中60868件为直接申请,7027件为通过P C T申请途径进入德国国家阶段。案件申请的电子化趋势尤为引人注意,直接申
期刊
今年,一年一度的欧洲专利局专利检索培训会(EP0 Search Matters)在欧专局德国慕尼黑总部举行。在会上,欧专局专利审查员在不少问题上都提供了有效信息,包括:  ·人工智能与区块链技术对专利检索的影响;  ·专利检索策略;  ·特殊技术领域专利检索的复杂性。  本届培训会历时3天,内容涵盖了多个技术领域。会上重点介绍了欧专局的专利检索策略和操作办法。与会者有半天时间了解专利审查员的实地工
期刊
“通知与移除”规则由美国《千禧年数字版权法》(Digital Millennium Copyright Act of 1998,简称DMCA)首创,并被我国《信息网络传播权保护条例》所借鉴。它的基本含义是,当信息存储空间中出现了用户上传的侵权内容,或者其链接指向了其他网站中的侵权内容时,权利人可以向信息存储空间服务提供者或搜索和链接服务提供者发出通知,告知相关侵权事实并提供初步证据;SK务提供者在
期刊
随着大数据、云计算等新兴技術的快速发展,人工智能技术也进入了一个全新的时代。有理由预见,在不远的将来,交通运输、医疗、看护、工业和服务业等诸多领域出现各式各样的智能机器或者智能机器人,成为人类社会中司空见惯的事物。与此同时,与人工智能相关的法律问题也在学界引起了热议,包括人工智能的民法地位、民事侵权责任、知识产权问题等,其中人工智能的法律主体资格是研究相关法律问题的基础及核心。只有明确了这一问题,
期刊
从2016年至今,人工智能迅速成为世界性的热点。无论是政府机构、社会组织还是民间企业,都纷纷出台了关于人工智能的文件,相关伦理和法律问题也成为各类研讨会的焦点。人工智能的深入发展给各行各业带来了巨大的冲击,很多人开始担忧充分发展的人工智能会对人类文明产生巨大的不确定性。  未来已来。人工智能为“万物互联”提供了最前沿的基础技术,也给法学理论、实务界带来了诸多挑战和不确定性。这种不确定性,一方面表现
期刊
2019年4月,黑洞照片引发的连锁反应,使部分以视觉中国为代表的图片提供方的运营模式遭到了社会垢病,图片作品使用时存在的一系列版权问题也随之暴露在公众视野当中。事实上,近年来在我国各地法院接收的案件中,涉图片类作品著作权纠纷案件出现爆发式增长,且呈现出许多新的特点,给知识产权审判工作带来了诸多新的挑战。  记者了解到,仅北京市某基层法院2016年受理的涉图片案件数量就达到了1600多件,比上一年同
期刊
■案件数量13件  涉单一潜在客户采购意向商业秘密纠纷案  一审案号:(2016)沪0110民初6392号  二审案号:(2017)沪73民终250号  【裁判要旨】  在判断商业信息是否具有实用性时,应根据实际情况,分析该商业信息能否给享有者带来经济利益。另外,一般情况下,发生在特定主体之间的特定采购意向,仅为交易双方所掌握,难以为其所属领域的相关人员普遍知悉和容易获得。而经过一定努力和付出所获
期刊
商标的显著性,在我国《商标法》条文中表述为“有显著特征,便于识别”,是指该标志使用在具体的商品或服务上时,能够让消费者觉得,它与商品或服务的特定出处有关。按照大类来分,显著性包含两类,即“固有显著性”和“获得显著性”。其中,“固有显著性”类标识一经与特定商品相结合,消费者会立即认为它们指示了该特定商品的来源,商标注册申请人无需就它们具备商标的显著性进行证明。而“获得显著性”类标识则因为其本身的构成
期刊
5月24日,由全球资深的知识产权数据库团队Questel主办的2019 Questel知识产权研讨会“新经济形势下的知识产权管理”在上海举行。来自企业、律师事务所及知识产权代理公司的近百位业内人士齐聚一堂,聚焦业内前沿信息,共同打造了一场以“创新、成本控制与企业管理改革”为核心的分享盛宴。  Orbit Innovation:科学家信息工具  2019年,Questel产品家族迎来了新成员Orbi
期刊
人工智能:问题与噱頭同在  从2016年至今,人工智能迅速成为世界性的热点。无论是政府机构、社会组织还是民间企业,都纷纷出台了关于人工智能的文件,相关伦理和法律问题也成为各类研讨会的焦点,仿佛人工智能能在一夜之间将我们的世界颠覆。  作为一个产业至上的国家,美国更多是从产业发展的角度看待人工智能的发展。2016年底,白宫连续发布两份关于人工智能的报告《preparing for the futur
期刊