设为首页 - 加入收藏 - 网站地图 湖南新闻网-中国领先的新闻门户网站
当前位置:首页 > 科技 > 正文

人工智能在多领域表现出对女性的“”

时间:2019-10-20 13:36 来源:未知 作者:dd 阅读:

面对这样有着性意味的话,多数人即使不选择回击,也会沉默。但在人工智能的世界里,回答极有可能是迎合式的。例如,苹果公司开发的AI语音助手会回答,“如果我能,我会脸红。(I’d blush If I could)”。如果你“调戏”亚马逊的Alexa,“You’re hot”,它的典型反应是愉快地回应“你说得很好!”(这些回答最近已经修正——作者注)

5月22日,联合国发布了长达146页的报告,大多数AI语音助手都存在性别,报告名就叫《如果我能,我会脸红》。“因为大多数语音助理的声音都是女性,所以它对达出一种信号,暗示女性是乐于助人的、温顺的、渴望得到帮助的人,只需按一下按钮或用直言不讳的命令即可。”

“技术反映着它所在的社会。”联合国教科文组织性别平等部负责人珂拉特(Saniye Gülser Corat)告诉。该部门担心,AI智能助手的形象会扩大性别刻板印象,影响人们与女流的方式,以及女性面对他人要求时的回应模式。

事实上,人工智能在很多领域都已经表现出对女性的“”。例如,在人工智能应用最广泛的图片识别领域,女性就和做家务、待在厨房等场景联系在一起,常常有男性因此被AI认成女性。AI翻译时,医生被默认是男性。这种还会蔓延到广告投放里:谷歌给男性推送年薪20万美元职位的招聘广告的概率是女性的6倍。

女性只是的者之一,少数族裔、非主流文化群体都是人工智能的歧视对象。一件印式婚礼的婚纱,会被认为是欧洲中世纪的铠甲,而西式婚纱的识别正确率则超过95%。研究人员测试微软、IBM、Face++三家在人脸识别领域领先的系统,发现它们识别白人男性的正确率均高于99%,但测试肤色较深的黑人女性的结果是,错误率在47%——和抛硬币的概率差不了多少。

这也不是人工智能时代才有的事情,搜索引擎早就诚实地展示了类似的“歧视”。在相当长的时间里,搜索典型的黑人名字,搜索有超过80%的概率会提供“”“犯罪”等词,而没有种族特征的名字,相应的概率只有不到30%。在谷歌图片搜索“CEO”,结果会是一连串白人男性的面孔。

当前的人工智能没有思考能力,它能做的,是寻找那些重复出现的模式。所谓的“”,就是机器从数据中拾取的规律,它只是诚实地反映了社会中真实存在的。它会积极“迎合”人类的性,是因为人类希望它迎合,它之所以会“歧视”,是因为人类把它训练成了这样。

亚马逊研究后发现,因为在科技公司中,技术人员多数是男性,让人工智能误以为男性特有的特质和经历是更重要的,因而将女性的简历排除在外。斯坦福大学的研究人员则发现,图片识别率异常的原因是,“喂”给AI的图片大多是白人、男性,缺乏少数族裔,而包含女性的图片里,往往会出现厨房等特定元素。

这看起来很难有改善的可能,现有的训练方式甚至会加深“”。你一定有过这样的经历,刚在购物网站上购买了洗发水,就在各类软件的开屏广告、“你可能喜欢”里看到10个品牌的30种其他洗发水,仿佛自己要开杂货店。

这些错误和“”看起来显而易见,但对从出生起就在人工智能活的人来说,习惯会慢慢变成自然。美国一家人工智能公司的创始人偶然发现,自己4岁女儿与亚马逊的AI语音助手Alexa对话时,发布指令的方式“无论从任何社会习俗角度看,都很”,才意识到,Alexa给孩子树立了一个糟糕的榜样。

(责任编辑:dd)

顶一下
(0)
0%
踩一下
(0)
0%
上一篇:周鸿祎:网络安全已进入大安全时代
下一篇:没有了
发表评论
请自觉遵守互联网相关的政策法规,严禁发布色情、暴力、反动的言论。