响应AI治理原则,企业为技术应用“划线”

6月17日,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》。度小满金融也表示,为确保人工智能可信赖采取多种措施,已经从金融科技研发、拓宽金融服务边界及产学研跨界等方面给出新的破题思路。

响应AI治理原则,企业为技术应用“划线”

来源: 南方日报
2019-07-12 08:20 
分享
分享到
分享到微信

6月17日,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》。这是我国首次发布发展人工智能治理原则,提出发展负责任的人工智能。

本周,旷视科技宣布推出基于企业自身管理标准的《人工智能应用准则》,旨在从人工智能企业自身的角度,规范、引导人工智能技术正确运用和健康发展,并确保其安全可控可靠,促进企业及行业生态可持续发展。更早之前,包括腾讯、百度旗下度小满金融等也纷纷响应人工智能治理原则。

从隐私保护等多个维度作出规范

随着人工智能技术不断介入人们的生活,相关的风险也开始不断暴露。如“大数据杀熟”,就引发了反映了人们对算法歧视的担忧之一,包括滴滴、携程、肥猪等都遭到质疑。此外、语音识别、人脸精准广告工具等算法应用都可能存在偏见和歧视。

更严重的则是隐私泄露。今年初,来自深圳的提供人脸检测和人群分析科技公司深网视界就被曝出,自去年7月以来,其数据库出现大规模的数据泄露。这些数据库包含了超过256万用户的记录,包括身份证号码、地址、出生日期、识别其身份的位置。

截至目前,深网视界官网已经能正常打开,但经历此事后,其社会形象严重受挫,在业务上也再无新消息。

前车之覆,后车之鉴。同样从人脸识别起家的旷视科技,则试图给自己划定一条“红线”。根据此次发布的《人工智能应用准则》,旷视从正当性、人的监督、技术可靠性和安全性、公平和多样性、问责和及时修正、数据安全与隐私保护六个维度,对人工智能正确有序发展作出明确规范,同时给出相应干预措施或指导意见,确保人工智能能够在可控范围内持续发展。

例如,《人工智能应用准则》提出了“人的监督”这一概念,即人工智能应该在人类的监督下健康发展,以确保自身的安全性,并保障公众安全,“AI商业化的探索中触发了企业对于AI应用尺度的思考。因此我们希望以此倡导行业提早建立可持续发展的生态”。

度小满金融也表示,为确保人工智能可信赖采取多种措施,已经从金融科技研发、拓宽金融服务边界及产学研跨界等方面给出新的破题思路。

技术需要接受价值引导

“要让伦理成为人工智能研究与发展的根本组成部分。”近日,由腾讯研究院和腾讯AI Lab联合发布《智能时代的技术伦理观——重塑数字社会的信任》如是说。

腾讯研究院人士表示,就AI而言,虽然技术自身没有道德、伦理的品质,但是开发、使用技术的人会赋予其伦理价值,因为基于数据做决策的软件是人设计的,他们设计模型、选择数据并赋予数据意义,从而影响我们的行为,“所以,这些代码并非价值中立,其中包括了太多关于我们的现在和未来的决定。因此,我们需要构建能够让社会公众信任人工智能等新技术的规制体系,让技术接受价值引导”。

企业也有了一个新的使命:科技向善。通过一张3岁的泛黄照片,腾讯优图利用AI技术突破“跨年龄人脸识别”,助力警方寻回被拐十年儿童。腾讯董事会主席马化腾也多次在公开演讲中阐释“科技向善”的愿景与使命。

借助企业的技术,从更大范围推动社会发展。人工智能公司云从科技相关负责人也告诉南方日报记者,在安防领域,公安将人工智能技术用于寻找走失人员及关爱孤寡老人上,以往民警需要每天上门查看孤寡老人状态,现在可以通过人脸、人体及轨迹技术确认孤寡老人是否活动,如有异常立即上门。

“从我接触到的一些科技企业来看,他们是不太愿意讲科技伦理的,因为这会制约他们的创新,对这些企业来说,他们的发展目标其实是不太清晰的。”中国社科院哲学研究所研究员段伟文说,科技向善应该成为企业最基本的原则和要求。

【责任编辑:张天磊】
中国日报网版权说明:凡注明来源为“中国日报网:XXX(署名)”,除与中国日报网签署内容授权协议的网站外,其他任何网站或单位未经允许禁止转载、使用,违者必究。如需使用,请与010-84883777联系;凡本网注明“来源:XXX(非中国日报网)”的作品,均转载自其它媒体,目的在于传播更多信息,其他媒体如需转载,请与稿件来源方联系,如产生任何问题与本网无关。
版权保护:本网登载的内容(包括文字、图片、多媒体资讯等)版权属中国日报网(中报国际文化传媒(北京)有限公司)独家所有使用。 未经中国日报网事先协议授权,禁止转载使用。给中国日报网提意见:rx@chinadaily.com.cn