当前位置:中工网理论频道科教天地-正文
如何应对人工智能的法律风险
刘 权
//www.workercn.cn2017-12-13来源:学习时报
分享到:更多

  

  近年来,人工智能持续升温,成为全球科技研发的热点。不少国内外大型互联网企业都在加大资金与人才投入,以抢先占领人工智能技术的高地。在国家层面,很多政府纷纷出台政策支持人工智能的发展。如2014年欧盟发布了《欧盟机器人研发计划》,2016年美国发布了《国家人工智能研究与发展策略规划》,2017年法国发布了《人工智能战略》。我国政府也于今年7月发布了《新一代人工智能发展规划》并明确提出到2030年,我国人工智能理论、技术与应用总体达到世界领先水平,成为世界主要人工智能创新中心的战略发展目标。

  对人工智能的法律规制应坚持适度原则。任何技术的发展都是一把双刃剑。人工智能成为国际竞争的新焦点、经济发展的新引擎,带来社会建设的新机遇,但同时,其发展的不确定性也带来新挑战,对大数据与隐私保护、危险承担与瑕疵担保责任、知识产权的创造与归属、侵权或损害赔偿责任归属等都有一定程度的冲击。人类与机器人关系所引发的各种法律、政策和伦理问题紧迫地摆在我们面前,对当下的伦理标准、法律规则、社会秩序及公共管理体制带来难以避免的挑战。一方面,要科学预见人工智能可能带来的风险,通过法律进行有效规制,保证人工智能在良好有序的秩序下发展。另一方面,不能因噎废食,应当积极运用法律,对人工智能的规范应当适度,通过立法对人工智能发展提供基本规则、趋利避害的同时,也要在相关法律规范的引导下,营造更好的创新文化。

  立法的前提是了解人工智能的科学规律。相关法律政策的出台,需要对人工智能的科学规律有着充分的理解和把握。当前,我们正处在人工智能立法的准备、摸索和积累阶段,同时也是人工智能立法的促进阶段,与人工智能应用相关的法律问题主要集中在责任确认、隐私和产权保护、信息安全利用等方面,要建立追溯和问责制度,明确人工智能法律主体以及相关权利、义务和责任,重点围绕自动驾驶、服务机器人等应用基础较好的细分领域,加快研究制定相关安全管理法规,为新技术的快速应用奠定法律基础。其中,人是人工智能的总开关,对法律主体及其责任的厘清是人工智能法律规制的前提。

  首先,要对人工智能的开发者进行有效管理。开发者在设计时,应当以人为本,遵守社会伦理道德,消除各种歧视观念,遵守平等原则。禁止基于不正当目的开发人工智能。开发者应当审慎设计相关代码程序,如果某项人工智能所促进的社会公共利益,与其所造成的损害明显不成比例,应当及时制止。其次,应当对人工智能的销售者与使用者进行规制。销售者应当建立并执行人工智能产品进货检查验收制度,验明人工智能产品合格证明和其他标识,禁止销售不合格的人工智能产品,不得伪造或者冒用认证标志等质量标志。使用者应当合理利用人工智能,不得损害国家、社会及他人合法权益,法律应当合理设定相应的使用条件与标准。再次,明确人工智能致损的责任分担机制。如果开发者在设计时存在故意或重大过失,导致损害发生,则应由开发者承担责任。如果由于开发者当时的认知局限,没有预见到未来发生的状况,导致损害发生,开发者也应当承担瑕疵担保责任。如果销售者与使用者存在过错,则应承担相应的责任。人工智能产品保险制度也应逐步建立完善。

  技术中立不代表不受法律规制。科技需要在法律的轨道上发展,技术中立并不表明技术可以脱离法治。尽管存在隐忧,但只要秉持理性主义精神、法律规制适当,具有诸多优势的人工智能必定会给未来人类社会带来巨大的正能量。因此,一是应当对人工智能进行适度有效的规制,及时立、改、废相关法律制度。国务院《新一代人工智能发展规划》提出,“建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力”。在规制人工智能时,政府应当处理好科技创新与法律规制的关系,按照“鼓励创新、包容审慎”的原则,确立事前备案、事后惩处的机制,使法律既能有效保障公民权利,又能支持促进科技创新。二是法律手段与伦理道德并重。在未来构建人机关系格局方面,在人工智能领域发展迅猛的中国也应发挥传统文化的优势。面对人工智能,既要通过法律和政策予以规范,也要用文明和伦理赋予其更多开放的弹性,在推进政策制定的同时,还应积极尝试引导行业自律。三是要加强国际合作,着眼于未来技术与伦理、经济与社会、科技与文化等多个维度和层面,从立法上创设人工智能发展的和谐社会环境和制度文化。

零容忍党员干部追求低级趣味

  趣味属于人的心理和精神上的选择,党员干部远离低级趣味,关键是要管住自己,不但筑好“防火墙”,还要备好……  

扫码关注

中工网微信


中工网微博


中工网抖音


工人日报
客户端
×