您的位置:首页>国内 >内容

IT必须注意隐性偏见采取措施尽量减少伤害

2022-09-22 13:30:05来源:
导读 1、根据Gartner Research的数据,从现在到2022年,85%的AI项目会因为数据、算法或负责管理它们的团队的偏见而产生错误的结果。此外,根...

1、根据Gartner Research的数据,从现在到2022年,85%的AI项目会因为数据、算法或负责管理它们的团队的偏见而产生错误的结果。此外,根据盖洛普民意调查,85%的人目前至少使用一种人工智能设备、程序或服务。

2、当我在20世纪80年代末开始使用人工智能系统时,这种偏见已经为我所知。事实上,人们对人工智能系统进行编程和教学,所以那些人工智能系统往往带有教它们的人的固有偏见。

3、使用云托管昂贵的人工智能系统实际上让情况变得更糟,因为能够负担人工智能的公司数量增加了,但拥有可靠人工智能技能的人数却没有以同样的速度增加。因此,除了广泛使用的人工智能工具的先天偏见之外,人才的缺乏也意味着在一段时间内,如何构建知识库的错误会越来越多。

4、这些偏见是什么样的?女性可能会发现自己变矮了。这是因为在人工智能的开发和教学中,男性占绝大多数,所以他们有意识或无意识的偏见被编码。例如,2015年的一项研究显示,谷歌搜索中只有11%的“首席执行官”图片是女性,尽管27%的首席执行官是女性。(虽然从谷歌中选择很容易,但这些问题很快得到了纠正。)

5、该公司将不得不为这些内置的人工智能偏见买单。例如,她们需要吸收没有贷款给足够多的女性带来的利润,这些女性约占市场的55%。而且,至少是恶业,最糟糕的是会让你陷入法律的水深火热之中。

6、对此我还能做些什么?现实是,有偏见的人工智能系统比其他系统更正常。因此,IT需要认识到偏差的存在或可能性,并采取措施限制损害。幸运的是,工具正在出现,帮助你发现基于人工智能的偏见。

免责声明:本文由用户上传,如有侵权请联系删除!

猜你喜欢

最新文章