欢迎来到潇湘科技要素大市场怀化分市场
 您当前位置:创新资讯

人工智能治理研究必须“超前于实践”

发布时间: 2021年07月13日

人工智能技术正给人类社会治理带来全新的挑战。对学术界而言,有些研究已经“等不起”了。

日前,在上海交通大学计算法学与AI伦理研究中心成立仪式上,AI伦理课题组负责人田丰向全社会征集研究者和志愿者。 “我们现在对人工智能治理的研究还远远不够。”田丰是商汤智能产业研究院院长,兼任上海交通大学计算法学与AI伦理研究中心联袂主任。在他看来,随着人工智能赋能百业效应的显现,将带来生产效率上百倍乃至上千倍的提升,同时也可能把人性善恶带来的影响放大百倍、千倍,因此,人工智能治理研究必须走在实践前面,通过研究提升人工智能治理能力,从而为城市的数字化转型提供更好的支撑。

人工智能会产生“歧视”和“偏见”,该怎么办?

就在去年,深圳法院认定人工智能生成的文章构成作品并拥有著作权,这一全国首例判例一度引发法学界热议。而这只是人工智能发展给人类社会带来的挑战之一,也凸显了人工智能治理的重要意义。

所谓人工智能治理,即针对人工智能的开发和应用所带来的社会风险,确保数据安全和算法公正,使科技真正造福于人类并且处于可控状态。上海交通大学中国法与社会研究院院长、著名法学家季卫东说,必须明确相关的原则、伦理、政策、法律、行业规则、技术标准,形成综合治理的规范性框架,并把合规要求落到实处。

“随着信息与通信技术的迅猛发展,社会生活的方方面面都在数字化。法治中国的大政方针则意味着法律系统与社会系统的完全对应。数字全覆盖、法治全覆盖,两者重叠在一起,决定了人工智能治理的重要性。”季卫东告诉记者,物理空间与信息空间的交融,以及社会的智能网络化,势必带来治理方式以及法律秩序原理的深刻变化。

在季卫东看来,当前的人工智能已经具备一定的自主学习与决策能力,但并不具备法律人格,而现行法律也未明确界定人工智能的设计、制造、消费、使用等各环节主体的责任与义务。这使得一旦人工智能在使用过程中出现问题,法律对责任的认定和划分难度大增。比如,自动驾驶汽车决策错误导致人员伤亡、智能医疗助理给出错误医疗建议导致患者病情加重等,当这类情况发生时,如何明确界定主体责任? 

 “弱人工智能演进至强人工智能阶段后,更会对现行法律法规及其执行机制等造成深远影响。”上海市科学研究所科技与社会研究室主任王迎春说,从去年发布的全球人工智能治理年度观察来看,随着城市数字化转型,人工智能会越来越多地用于生产和社会治理,这样的融合将带给我们意想不到的挑战。

比如,当下人工智能主要是大数据驱动,训练数据的偏差不可避免地会导致人工智能产生“歧视”和“偏见”。不论是曾经公开测试的微软小冰还是别的人工智能,“他们”都在根据收集到的大数据“自主学习”中习得了一些“偏见”和“不良习惯”。此外,人工智能用于社会治理时,数据使用的边界究竟在哪里?这些都需要学界进一步研究。

“只是技术的基础和载体变了,而人性并没有变”

 盘点全球人工智能研究领域的成果,在过去10年,人工智能安全风险和防御方面的论文数量增加了差不多10倍。 “人工智能治理已经成为全球学术界研究的热点之一,甚至有学者建议,设定全球统一的人工智能的数据使用标准。”上海交大法律大数据分析中心主任杨力说。

 其实,人工智能治理中的安全问题、法律问题等都并非人工智能出现后才有。在早期互联网或者更早IT基础设施刚刚开始建设时,这些问题就已经出现。田丰直言:只是技术的基础和载体变了,而人性并没有变。

他举了个简单的例子。开源共享是当下人工智能发展过程中倍受推崇的一种方式,因为它直接带来了知识共享,有助于人工智能的研究和发展提速。但是,开源共享也使得更多的安全漏洞被暴露出来,同时也会有在一些黑色或灰色产业地带活动的人研究开源框架,这会带来很多难以预测的产业发展风险和社会风险。

“人工智能的最大特点是效率跃升,这也使得人性中的善恶带来的影响都会加速放到最大。这也是为什么我们的研究必须要有一定的超前性和前瞻性,并且要加快研究速度,这样才可能为整个技术创新发展铺平道路。”田丰说。

在关注技术创新的同时,还要注意风险防范

“当下,人工智能治理已经受到了政府、智库以及企业界等多方面的关注。但是从学界研究到现实应用,都应进一步提速。”季卫东告诉记者,技术往往跑得比法律、社会治理的规范更快更前,人工智能的发展已经进入爆发期,而治理体系作为法律与社会互动的一部分,其发展演变却相对缓慢。

季卫东直言,技术快速迭代提醒国内学术界要加强跨学科的协同研究,要从规范制定、制度框架以及技术、道德原则、政策等层面加快对人工智能治理的研究。当下的人工智能治理不能只是停留在简单行政规制上,而要注意不同价值取向和利益的平衡,采取因势利导的“助推”手法。

 确实,有一些问题是技术层面的,比如人工智能的自主学习过程中出现的算法“黑箱”导致的问题,就必须从技术层面解决。但更多在人工智能治理中的问题,需要政府、企业以及个人协同解决。以去年发表在《自然神经科学》杂志上的成果为例,其开发的人工智能系统,可以将大脑活动转化为文本数据。一旦这一技术成熟用于脑机接口,那么如何保护个人隐私,则必须由政府、科技界、法学界等重新给出解决方案。

田丰同样认为,人工智能治理要关注的对象,既包括整个产业链中所有各方,也要涵盖政府、用户等整个科技治理领域各方的权、责、利。

季卫东称,就人工智能治理而言,在关注技术创新的同时,还要注意预防和及时解决人工智能可能带来的社会问题,政府和相关机构应该及时确立人工智能研发的安全框架和技术标准,包括确保人工智能应用的合法合规、人工智能的功能可靠可控、驱动人工智能的数据安全可信,以及人工智能在用于社会治理时的决策公平公正,人工智能算法的可解释性和可追溯性, “只有这样才能为我们的城市数字转型提供更安全、可靠的环境”。