1. 我是CIO首页
  2. 观点

技术决策和设计的多样性:创造我们想要的未来

技术决策和设计的多样性:创造我们想要的未来插图(1)

在查尔斯·狄更斯(Charles Dickens)1843年的小说《圣诞节颂歌》(A Christmas Carol)中,圣诞节礼物的幽灵面对着埃比尼泽·史克鲁奇(Ebenezer Scrooge),两个可悲的悲惨孩子从他流淌的长袍底部凝视着。

鬼说:“这个男孩是无知。这个女孩是旺旺。请当心他们和他们所有的学历,但是最重要的是要当心这个男孩,因为在他的额头上,我看到的是毁灭战士,除非被删除。 ”。

狄更斯-早年生活在贫困中-是一个激烈的十字军,反对这个制度,这个制度在很大程度上没有意识到,也无视社会被剥夺权利的状况。对他来说,“想要”代表了社会的迫切需求,但是“无知”阻止了社会状态的系统性改善。 

如今,人工智能(AI)拥有巨大的潜力,可以对几乎每个社会阶层产生积极影响。然而,人工智能仅与认知算法的设计以及推理所基于的数据一样好。

即使用户“想要”一个自我推理的系统,该系统可以做出比人类更好甚至更好的推理,但是如果设计有缺陷或数据存在偏差,则AI将使偏差永久化。这可能会进一步“无知”,从而使社会发展停滞不前,或者无法满足诸如气候变化,更公正的刑事司法制度或医疗保健等重大需求的能力。

无所不在的偏见

毫无疑问,存在偏见。面部识别软件在识别白人方面取得了巨大的成功。

对法官用来假释的AI软件系统的分析发现,黑人被告比白人被告更有可能被错误地瞄准高累犯风险。预测性警务软件被批评为针对黑人和拉丁裔社区的比例过高。

在医院中,研究人员发现算法偏见导致黑人患者尽管病了,但比白人患者获得额外医疗帮助的可能性更低。人工智能在筛选简历中的招聘实践已将女性排除在外。

在所有这些情况下,AI都不打算产生这些结果,而是根据方法和数据中内置的数据偏差开发的,这加剧了AI旨在解决的问题。 

加州的科技公司以对包容性的渴望和零基础的技术创新而闻名,应该率先确保人工智能没有偏见。但是国家的技术部门可能是问题的一部分。

通过信息货币化的数据聚合器,包括Google,Amazon,Facebook和Twitter等网站,控制着大量数据,这些数据推动了当前使用的大多数AI。 

重要的是,有关如何使用数据,同意的条款和协议以及与数据隐私有关的所有问题的决定,是由这些公司的信托管理制定的,而不是通过公开讨论来决定的。 

消除AI偏见并确保其道德部署的最佳方法是坚持AI设计人员的多样性和AI决策的多样性。

但是,这些公司中的许多公司几乎没有多样性。

根据 国家妇女与信息技术中心(National Center for Women&Information Technology)2018年的一份报告,在所有与技术有关的职位中,只有四分之一由女性担任。 

根据布鲁金斯研究所的研究发现:在苹果公司,虽然新的招聘趋势显示的诺言,黑技术工人的比例落在他们的美国总人口的约13%表示在下面。西班牙工人包括大约只有7%计算机和数学的职业雇员。 

在美国,只有24%的公司将女性作为其公司董事会的一部分。尽管董事会在性别多样性方面取得了一些进步,但许多公司表示,  在社会多样性的其他领域(例如种族/民族,年龄,性别)的增长缓慢。 

重要的是,除了社会多元化之外,还发现来自CFO或CEO以外的背景的专业多元化(例如CTO,HR,网络安全或风险)对公司绩效具有积极影响。

通过设计解决偏见

当多样性和监督没有纳入系统时,就会产生偏差。在设计过程中,多样性将确保在从方法框架到数据收集和处理的不同阶段提出不同的问题,以限制偏差。 

设计和决策的多样性也将确保系统更加透明。

早期的人力资源AI与偏见有关,因为AI收集的数据池主要由男性组成。该系统无意间降低了简历的等级,突出了“女性”的成就或吹捧与沟通和情商有关的软领导特征。

同样,一些旨在促进语音和语言识别,翻译和理解的AI系统也未能融入多元文化和语言习语,从而限制了算法的预测能力,无法提高通常在交流中使用它们的个人的兴趣。

开发人员必须精心策划数据集以识别相关的关注领域,确保数据集具有代表性,并针对各种潜在偏差测试AI算法。

此外,高管人员和决策的多样性可确保10,000英尺的人不仅了解公众的偏见风险,而且了解组织的底线。

例如,谷歌  刚刚宣布收购健身追踪器Fitbit,这是其进军AI驱动的健康和保健平台的一部分。但是Fitbit的购买者绝大多数是女性,年龄在35-44岁之间,家庭收入超过100,000美元。

精明的高管们不会忽略与利基,同质数据集相关的潜在偏见,因为这可能会危害与健康和保健计划有关的业务计划。

在AI公司解决设计和开发问题之前,不能依靠其创新来实现无偏差计算。这不是理论,而是确定性。 

技术可以放大我们最好或最坏的质量。它还可以加速我们面临的巨大挑战,或者增强我们寻找挑战解决方案的能力。

去年,加利福尼亚州的小胡佛委员会(Little Hoover Commission)发布了一份报告“ 人工智能:加利福尼亚的路线图 ”,该州要求该州采用AI政策制定议程以推进治理并重塑社会。

如果加利福尼亚希望实现该报告中确定的理想社会状态,则其技术行业需要加倍努力消除“无知”(也称为数据和设计偏见),以便我们在解决“需求”或社会需求时部署将继续改变我们生活的新兴技术。

来自Pepperdine Graziadio商学院信息系统博士学位的Charla Griffy-Brown的客座文章。

本文转载自 大咖说 ,旨在分享不同观点,并不代表 我是CIO 立场。

发表评论

登录后才能评论