1. 我是CIO首页
  2. 观点

被算法洗劫:管理未来

被算法洗劫:管理未来
信用:Shutterstock

如果您的老板是一个算法怎么办?想象一下一个世界,在这个世界上,人工智能并没有适合您的工作,而是经理的工作:无论是雇用新员工,管理大量员工,还是为冗余裁员,大数据和复杂算法正在逐渐取代传统管理任务。这不是对未来的反乌托邦愿景。根据Jeremias Adams-Prassl教授的说法,算法管理正在世界各地的工作场所中迅速建立起来。

我们应该担心吗?牛津大学法学教授建议,面对机器,我们不一定没有防备或无能为力,甚至可能(谨慎地)拥抱这场革命。为了弄清楚我们应该如何规范工作中的人工智能,他已获得欧洲研究理事会颁发的150万欧元的著名资助。

这将需要认真考虑现有结构。在接下来的五年中,Adams-Prassl教授的项目将召集一个由计算机科学家,律师和社会学家组成的跨学科团队,以了解当老板不再做出关键决定而采用难以理解的算法时会发生什么。

如今,雇主可以访问有关其员工的各种数据,从电话,电子邮件和日历日志到办公室的日常工作以及您的fitbit。甚至臭名昭著的19世纪管理理论家弗雷德里克·泰勒(Frederick Taylor)都没有梦想过这种程度的监视。然后,通过一系列算法来处理这些信息,这些算法通常依赖于机器学习(或“ 人工智能 ”)来筛选数据中的模式:当前明星演员的共同特征是什么?哪些申请人与这些个人资料最匹配?

这位教授指出:“管理自动化已经存在了一段时间。” “但是,我们现在看到的是一个巨大的变化:算法已经被广泛用于管理零工经济,仓库和类似环境中的工人。如今,它们已经运用于医院和律师事务所等各个领域的工作场所银行甚至大学。” COVID-19大流行病进一步推动了这一发展,传统的管理人员努力照顾自己的团队。结果,算法老板不仅在看着我们在工作:它已经来到我们的客厅。

这并不一定是一件坏事:算法已成功部署,可以进行内部交易,或帮助员工规划职业并在大型组织中找到重新部署的机会。同时,Adams-Prassl教授警告说,我们必须注意将关键决策委托给机器学习的意外(但通常是完全可预测的)负面影响。视频采访软件已多次被证明可以根据申请人的肤色而不是技能来区别他们。而且,这种复杂的招聘算法很可能会发现这样一个事实,即您目前的高级工程师中的一个关键模式是他们都是男性,因此“学习”了放弃有前途的女性申请人的简历。仅仅排除性别,种族或其他特征就不会’ 要么解决算法歧视问题,要么:有很多其他数据点,从购物习惯到邮政编码,可以从中推断出相同的信息。但是,在探索算法公平性和透明性的新兴文献中,工作场所似乎很少受到关注。

为上个世纪的工作场所设计的现有法律框架一直在努力与时俱进:它们威胁着扼杀创新,或使工人得不到保护。GDPR可以防止某些最糟糕的人员管理情况(例如在美国,不能通过电子邮件进行自动解雇),但是这种工具的粒度还远远不够。了解技术是解决这个难题的关键:收集哪些信息,以及如何处理?

这位教授坚持认为:“在工作中使用大数据和人工智能并没有什么本质上的坏处:当心任何卢迪特的幻想。” 但是雇主应该谨慎行事:“是的,自动化招聘流程可以节省大量时间,而且如果设置正确,可以积极鼓励雇用最好和最多样化的候选人-但您还必须提防:机器学习算法,由他们很自然,往往会惩罚异常值。”

在最近获得欧洲研究委员会(ERC)资助的支持下,他的团队将提出一系列工具集来规范算法管理。主要目标是考虑所有利益相关者,尤其是通过提高社交对话在重塑明天工作场所中的重要性:成功引入算法管理需要合作,以确定如何最佳地使软件适应个人情况,无论是决定哪种数据应该被捕获,或者在招聘过程中应该优先考虑哪些参数。

这不仅仅是法律法规的问题:我们需要研究软件开发人员,管理人员和工作人员的角色。在没有明确用例的情况下,投资“复杂的软件”毫无意义。可以理解的是,工人们会担心,并且会抵制:从淘汰办公桌活动监视器到投资聪明的FitBit底座(模拟您选择的锻炼方式)。

Adams-Prassl教授总结道:“没有工作的未来。” “面对技术预定论的诱惑时,请始终记住保持强烈的代理意识:技术开发没有内在的本质-今天我们的选择将确保明天的工作场所具有创新性,公平性和透明性。”

本文为作者 何斌 独立观点,并不代表 我是CIO 立场。

发表评论

登录后才能评论