人工智能带来的偏见和意外后果正在进入技术经理和专业人员的工作描述中,特别是当商业领袖转向他们寻求指导和判断时。驱动伦理AI是指在企业的技术专家发挥更大的作用,如在描述研究1580名高管和面积4400名消费者从凯捷研究所。该调查能够在人工智能道德与业务增长之间建立直接联系:如果消费者认为公司在道德上使用人工智能,他们就会不断回归;他们感觉到不道德的人工智能实践,他们的业务已经消失。
竞争压力是企业将AI推向极限并冒着跨越道德标准的风险的原因。“实施人工智能的压力正在推动道德问题,”Capgemini的作者,由Capgemini人工智能与分析集团董事总经理Anne-Laure Thieullent领导。“当我们询问高管为什么人工智能导致的道德问题是一个日益严重的问题时,排名靠前的原因是实施人工智能的压力。”34%的受访者表示这种压力可以保持AI趋势。
调查显示,在构建人工智能系统时,没有考虑另外三分之一的报告道德问题。另有31%的人表示他们的主要问题是缺乏人力和资源。这是IT经理和专业人员可以发挥作用的地方。
Capgemini团队确定了IT经理和专业人员需要处理的问题:
“缺乏道德的AI行为准则或评估偏离行为的能力
缺乏开发人员构建AI系统的相关培训
构建AI系统时未考虑伦理问题
在没有充分解决道德问题的情况下紧急实施AI的压力
缺乏专用于道德AI系统的资源(资金,人员,技术)“
Thieullent和她的合着者为IT经理和专业人士提供建议,在人工智能道德方面发挥领导作用:
赋予用户更多控制权和追求追索权的能力:
“这意味着建立用户可以要求解释基于AI的决策的政策和流程。”
使AI系统透明化,易于理解,以获得用户的信任:
“开发系统的团队应提供文档和信息,以简单的方式解释如何达到某些基于AI的决策以及它们如何影响个人。这些团队还需要记录数据集的过程以及决策系统。“
实施良好的数据管理并减少数据中的潜在偏差:
“虽然一般管理层将
负责设置良好的数据管理实践,但它依赖于数据工程和数据科学以及AI团队,以确保遵循这些实践。这些团队应该合并'设计和构建阶段的隐私设计原则,确保整个数据周期(原始数据,培训数据,测试数据等)的稳健性,可重复性和可审计性。作为其中的一部分,IT经理需要“检查准确性,质量,稳健性和潜在偏见,包括检测代表性不足的少数群体或事件/模式”,以及“建立适当的数据标签实践并定期审查,负责任地存储,以便它可用于审核和重复性评估。“
密切关注数据集:
“专注于确保现有数据集不会创建或加强现有偏差。例如,通过使用现有AI工具或通过对数据集统计模式的特定检查来识别数据集中的现有偏差。”这还包括“在开发算法之前探索和部署系统以检查和纠正数据集中的现有偏差”,以及“进行充分的预发布试验和发布后监控以识别,调节和减轻任何现有偏差”。
使用技术工具在AI中建立道德规范:
“实施AI的人面临的问题之一是深度学习和神经网络的黑盒性质。这使得建立透明度和检查偏差变得困难。”越来越多的公司正在部署技术和构建平台,以帮助解决这个问题。Thieullent和她的合作者指出了鼓励市场的发展,例如IBM的AI OpenScale,开源工具以及AI初创公司的解决方案,这些解决方案可以提供更高的透明度并检查偏差。
创建道德治理结构并确保人工智能系统的责任:
“创建明确的角色和结构,为关键人员和团队分配道德AI问责制并赋予他们权力。”这可以通过“调整现有治理结构以在某些团队内建立问责制来实现。例如,组织中现有的道德领导(例如,首席道德官)可以被委托负责审查人工智能中的道德问题。 “
指派“负责人工智能道德问题的高级领导人”也很重要。Thieullent和Capgemini团队还建议“建立内部和外部委员会,负责在道德上部署人工智能,这些委员会是独立的,因此无需急于进行人工智能部署。”
建立多元化的团队,以确保对各种道德问题的敏感性:
“让不同的团队参与是很重要的。例如,组织不仅需要建立更多样化的数据团队(在性别或种族方面),还要积极创建国际 - 社会学家,行为科学家和UI / UX设计师的学科团队,他们可以在AI设计期间提供额外的视角。“