“例如,在招聘时,自动化系统使用历史数据来指导决策,他们可能会偏向于某些职业中历史上代表性不足的亚组。
“通过在创建人工智能中嵌入道德规范,我们可以缓解这些在零售,电信和金融服务等行业中显而易见的偏见。”
除了研究之外,预计新研究所还将通过实践,政策倡导,公众意识和培训来探索人工智能的道德规范,特别是在人道主义的道德发展和使用方面。
Data61在周四的一份声明中表示,该研究所将利用研究成果创建开源道德人工智能工具,可供企业和政府采用和调整。
“随着人工智能的广泛采用,确保技术的开发符合道德考虑因素至关重要,”Data61首席执行官阿德里安特纳补充道。“作为一个国家,我们需要做到这一点,从生产力的提高到新的世界价值,从AI中获益。”
在Data61今年布里斯班年会期间与ZDNet一同在Data61的工程与设计代理主管Hilary Cinis表示道德规范就是减少伤害。
她说,解决根深蒂固的道德偏见的一种方法是确保构建算法的团队多样化。她说,围绕发展的“文化反思”需要发生。
同样,Salesforce用户研究架构师Kathy Baxter在今年早些时候在悉尼举行的人权与技术会议上表示,出现的一个主要问题是数据中很难看到偏见。她说,同样复杂的是公平意味着什么。
“如果你按照头条新闻,你会发现AI是性别歧视,种族主义,并且充满了系统性的偏见,”她说。
“人工智能基于概率和统计,”她继续道。“如果人工智能正在使用这些因素中的任何一个 - 种族,宗教,性别,年龄,性取向 - 它会不公平地剥夺一部分人口的权利,即使你没有在算法中明确使用这些因素,是他们甚至不知道的代理人。
“在美国,邮政编码加上收入等于种族。如果你的算法中有这两个因素,你的算法可能会根据种族提出建议。”
她继续建议研究需要提前进行,以确定谁将受到影响,并在“硅谷泡沫”或开发商所处的任何位置泡沫之外提供额外的观点。
“人工智能从数据和数据中学习反映了过去 - 在渐变研究所,我们希望未来比过去更好,”Simpson-Young周四补充说。
Simpson-Young将由IAG的全资子公司Ambiata的联合创始人兼首席科学家Tiberio Caetano博士加入,他将以首席科学家的身份指导该研究所的道德AI研究。