首页>机器人 > 正文
科技伦理审查提速 人工智能如何趋利避害-世界讯息
来源: 北京商报网 发布于:2023-04-06 07:53:12

4月4日,根据科技部官网消息,科技部发布关于公开征求对《科技伦理审查办法(试行)》(以下简称《办法》)意见的公告。随着AI技术的发展,尤其是自ChatGPT诞生以来,人工智能相关的科技伦理问题引发各界关注,包括联合国教科文组织在内的组织和专家均呼吁重视人工智能伦理问题。

此次《办法》提出,从事人工智能的单位,研究内容涉及科技伦理敏感领域的,应设立科技伦理(审查)委员会,并引入专家复核程序,部分算法模型、自动化决策系统需要专家复核。有关分析认为,虽然伦理审查短期内会影响产品商业化的效率,但从长期来看,有助于人工智能行业可持续的健康发展。


【资料图】

不断涌现的伦理问题

近年来,AI技术的快速发展,人工智能的伦理问题也受到了各界的广泛关注。尤其是自ChatGPT和GPT-4发布以来,人工智能与普通人的日常生活越来越接近,与之相关的科技伦理问题也逐渐浮现。

有媒体援引比利时媒体La Libre 3月28日的报道,一名比利时妇女声称,她的丈夫在与 AI 聊天机器人Chai交谈了六周后自杀身亡,背后主要原因是Chai鼓励用户自杀。据悉,聊天机器人Chai是基于GPT-4替代方案研发的产品。

3月29日,包括马斯克、图灵奖得主约书亚·本吉奥、苹果联合创始人斯蒂夫·沃兹尼亚克在内的1000多名人工智能专家和行业高管联名签署了一份公开信,呼吁暂停开发比GPT-4更强大的AI系统至少6个月,称其“对社会和人类构成潜在风险”。

人工智能存在的伦理问题也引起了联合国教科文组织的注意。近日,联合国教科文组织发表声明,呼吁各国政府尽快实施该组织通过的首份人工智能伦理问题全球性协议——《人工智能伦理问题建议书》。

在最新发布的声明中,联合国教科文组织对科技创新引发的伦理问题表示关切,尤其是歧视、性别不平等问题,此外还有打击虚假信息、隐私权、个人数据保护等。行业自律显然不足以避免这些伦理危害。因此,《人工智能伦理问题建议书》提供了工具,以确保人工智能的发展遵守法律,避免造成危害,并在危害发生时启动问责和补救机制。

备受争议的法律焦点

人工智能可能带来哪些伦理和法律问题?在中国数实融合50人论坛智库专家、商务部研究院电子商务研究所副研究员洪勇看来,人工智能可能面临对自然资源的消耗、产品更新换代产生的各种垃圾等环境伦理问题,隐私泄露、歧视、失业、安全风险等个人伦理问题,以及推理能力、可解释性等技术伦理问题。

浙江理工大学数据法治研究院副院长郭兵对北京商报记者表示,从社会和经济层面来看,企业一般利益至上,如果各家科技巨头通过研发的大型语言模型,利用“算法暗箱”,谋一时之利,就有可能有损整个社会利益和国家利益,给国家安全带来风险。人工智能还可能引发劳动者权益方面的争议,引发劳动者的“饭碗焦虑”。

“从个人的角度来看,人工智能的应用还可能会侵犯人格尊严。比如算法所引发的歧视风险,还包括公民的隐私和个人信息泄露的风险。同时还可能危及个人的生命与健康,比如人工智能诱导自杀事件的情况。”郭兵说。

人工智能是否能够承担法律责任、如何追责也备受争议。河南泽槿律师事务所主任付建认为,人工智能技术的程序是开发人员编写的,但决策是由机器做出的,如果出现重大失误造成损害后果,责任谁来承担仍存在争议,同时,人工智能能否对自己做出的决策进行道德判断也是一个值得商讨的问题。

不断完善的审查规范

早在ChatGPT诞生之前,我国就已经有与人工智能伦理的相关规范和标准。2021年9月25日国家新一代人工智能治理专业委员会发布了《新一代人工智能伦理规范》,旨在将伦理融入人工智能全生命周期,为从事人工智能相关活动的自然人、法人和其他相关机构等提供伦理指引,促进人工智能健康发展。

3 月 5 日,在第十四届全国人大第一次会议举行的首场“部长通道”采访活动上,科技部部长王志刚表示,希望国内外企业在AI领域能够取得更多好成果,同时提醒需要注意科技伦理、需要做到趋利避害。

本次科技部发布的《办法》提出,从事生命科学、医学、人工智能等科技活动的单位,研究内容涉及科技伦理敏感领域的,应设立科技伦理(审查)委员会。

此外,在《办法》的附录中还提到了“需要开展专家复核的科技活动清单”,其中包括:具有舆论社会动员能力和社会意识引导能力的算法模型、应用程序及系统的研发;面向存在安全、人身健康风险等场景的具有高度自主能力的自动化决策系统的研发。

郭兵表示,目前我国科技伦理的审查,正由传统的完全自律逐渐演变成为法定的义务,在一些具体的领域例如《个人信息保护法》中,已经明确规定了科技平台有义务设置独立的第三方机构对其个人信息的处理活动进行监督。

《个人信息保护法》第五十八条规定,提供重要互联网平台服务、用户数量巨大、业务类型复杂的个人信息处理者,应当按照国家规定建立健全个人信息保护合规制度体系,成立主要由外部成员组成的独立机构对个人信息保护情况进行监督。

“此前科技部征求意见的《办法》,进一步对更广泛的科技伦理审查问题做了规定,引入了专家复核制度,是比较大的亮点。”郭兵表示,此前《个人信息保护法》并未要求企业邀请何种外部人员,而科技领域、AI领域专业性较强,通过法定的专家参与机制的设计,能够更好地保障人工智能伦理审查的效果。

未雨绸缪的蓝图发展

科技伦理审查将给人工智能行业将带来哪些变化?中国电子商务专家服务中心副主任、知名互联网专家郭涛认为,《办法》进一步明确政府、科研机构、科技企业等责任主体,建立伦理高风险科技活动的清单制度,有效避免人工智能技术被不当滥用,推动人工智能技术健康可持续发展。

“对人工智能可能带来的问题提前加以防范,进行伦理审查会对行业产生重大影响。此前更强调数字技术、人工智能技术在效率上带来的变革,而忽略技术对社会、对个人产生的伦理问题。随着科技伦理越来越得到重视,将会对人工智能在医疗、教育、无人驾驶等领域的应用产生影响。”北京市社科院研究员、中国人民大学智能社会治理研究中心研究员王鹏对北京商报记者表示。

郭兵认为,随着人工智能伦理审查越来越严,会增加企业的成本,尤其引入了专家复审要求后,会影响产品或技术市场化的效率,研发出来的某个算法模型不能立马投入商业化的应用。但另一方面,审查的严格将有利于人工智能产业的可持续发展。

“如果企业研发的产品投入市场化之后产生伦理方面的巨大争议,面临巨大法律风险,被直接叫停,带来的不利影响会比人工智能伦理审查带来的影响要更大,从长期来看,加强伦理审查有利于人工智能企业的可持续健康发展。”郭兵说。

北京商报记者 金朝力 袁泽睿 图片来源:北京商报记者 张笑嫣 摄

关键词: