价值驱动的人工智能如何重塑我们的沟通方式

价值驱动的人工智能如何重塑我们的沟通方式

迈克·安尼 (Mike Ananny) 今天早上遛了他的狗。

“我知道我受到各种各样的摄像头的影响,无论是环形门铃、行驶的汽车,甚至是城市交通摄像头,”他说。“我没有选择参与各种视频监控系统。我只是带着我的狗去散步。”

Ananny 明白,无论他走到哪里,关于他的数据都会被人工智能(AI) 收集、分析和货币化。

凯特克劳福德驾驶一辆面包车深入干旱的内华达州景观,以便仔细观察银峰锂矿蒸发的盐水池。

那些荒凉的液体不仅是美国最大的锂来源——锂是为从笔记本电脑、移动设备到电动汽车等各种设备提供动力的电池所必需的金属——它们也生动地提醒人们人工智能对物质世界的影响.

“人们用来谈论‘云’等人工智能的隐喻暗示了一些浮动和抽象的东西,”克劳福德说。“但大规模计算具有巨大的碳足迹和环境影响。”

克劳福德知道,世界系统的能源、采矿、劳动力和政治权力正在被人工智能的需求所改写。

当 COVID-19 大流行开始时,Ashley Alvarado 知道她电台的听众感到害怕和困惑。

在 KPCC-FM 和 LAist,Alvarado 使用各种通信工具与观众建立联系,但该电台收到的评论、问题和提示的规模需要能够快速处理大量数据的解决方案。

阿尔瓦拉多说:“对于 COVID,在大流行开始时对信息的需求如此之大,以至于我们可以成为洛杉矶人最人性化的方式就是利用人工智能。”

以算法、机器人、大数据、自然语言处理、机器学习、智能代理等众多名称而闻名的技术,不仅在重塑通信世界,而且在重塑整个世界。在南加州大学安纳伯格分校,教师、学生和校友正在探索这些技术带来的巨大潜力和通常不太明显的陷阱。

“Annenberg 具有独特的领导地位,因为这些都是社会技术和沟通问题,” Ananny 说。“我不希望我们对这些问题的回答只是技术性的。我想要一个深刻的历史和根植于文化理解的答案。”

搜索词

在流行的想象中,人工智能可以意味着任何事情,从你的手机挑选它知道你可能喜欢的歌曲或告诉你去朋友家的最佳路线的日常便利,或者大数据灵丹妙药的承诺,如气候变化或气候变化等问题。 2019冠状病毒病大流行。如果不提及人工智能被视为科幻小说反派的频率,几乎不可能讨论人工智能:弗兰克赫伯特的沙丘中禁止“思考机器”,亚瑟 C.克拉克的 2001:太空漫游中的 HAL 9000:太空漫游中的博格星际迷航,黑客帝国中的史密斯探员。

“我认为大多数人倾向于将其视为终结者或准备好的玩家一号的这种科幻技术,”公共关系中心主任弗雷德库克说。“实际上,它是人们(尤其是公关行业)在日常工作中已经使用的许多事物背后的引擎。”

简单地说,大多数通常被认为是人工智能的东西都归结为算法的交互——数学函数——基于大量数据进行计算。

“算法是管理计算的指令和规则,”研究技术如何塑造工作场所中个人和团队互动的 Marlon Twyman II 说。“人工智能必须有算法来支持它做出的决定和参与。”

Twyman 举了图像识别的例子:人工智能试图检测一张猫的照片是猫还是狗。算法接触的例子越多——数据越多——它们做出这些决定的能力就越好。

“人工智能是指计算机开始能够对他们在编程时不一定接受过训练或接触过的输入做出反应,”传播学助理教授 Twyman 说。

“我们与之互动的只是数学,”获得博士学位的伊格纳西奥克鲁兹说。2021年从事传播学,现在在西北大学任教。他强调,尽管人工智能具有识别趋势和模式的能力,但它并不是那么神秘。如果没有感知力,那么至少有一些独立机构——或者克鲁兹所说的“代理品质”——的技术,目前主要是科幻小说。

“算法不像人脑那样工作,”传播学教授林恩米勒指出。“人工智能实际上只是一台预测机器。”

这些机器以意想不到的方式在医疗保健、物流、游戏、娱乐、刑事司法、招聘和许多其他领域——包括地方新闻——取得了显着的技术成就。

人工智能和社区

KPCC-FM 没想到会使用 AI 来建立社区参与度,但是当 2020 年大流行来袭时,他们开始被关于封锁的恐慌信息淹没,这家位于帕萨迪纳的公共广播电台的领导层知道他们必须采取措施帮助他们的听众。

“一开始只是担心,”阿尔瓦拉多说。“然后它进入了全面的恐慌——关于塔吉特的短缺问题,是否取消婚礼,与亲人聚集在一起哀悼某人是否违法。”

这些问题中的大多数是通过广播电台嵌入其主页的工具提出的,该工具使用了参与和组织支持平台 Hearken。“我们有时通过这个工具每分钟收到 10 条消息,”KPCC-FM 和 LAist 的社区参与和战略计划副总裁 Alvarado 说。“我们必须创造性地思考如何满足成千上万人的信息需求。”

她与当时的 John S. and James L. Knight Foundation 新闻和技术创新主管 Paul Cheung 进行了交谈,后者询问她是否考虑过机器学习。“我没有,”她笑着说。Cheung 将他们与在线出版物 Quartz 上与 AI 合作的一些记者联系起来,他们帮助 Alvarado 和她的团队开发了一种自然语言处理工具,可以分析他们从听众那里收到的请求。

“使用该工具,我们可以确定我们需要关注的主题——不仅仅是为了回答问题,而是为了我们应该报道哪些故事以及在哪里报道,”阿尔瓦拉多说,她在 2005 年获得了文学学士学位,获得了印刷新闻和西班牙语双学位.

阿尔瓦拉多看到了这项技术的巨大潜力,可以让观众输入从野火到政治辩论等其他快速发展的新闻事件的表面模式。“通常情况下,你必须仔细阅读每一个问题,并希望你能观察到一种趋势,而不是让人工智能说,‘这是一次又一次地出现的东西。’”

一些出版物已经直接使用人工智能来编写故事,通常是基本的、易于格式化的文章,如股票报告、天气公告和体育报道。尽管这些作品最终使一些入门级记者免于死记硬背,但 Twyman 看到了潜在的不利因素。

“问题是,即使在这些简单的任务中,这也消除了创新的可能性,”他说。“如果我们不断地将人类从越来越复杂的写作任务中移除,我们最终可能会进入一个看起来非常不同的世界。”

有代理权的代理

有时,为了他们的安全,将人从等式中移除是必要的。在 25 多年前对高风险性行为的研究中,米勒遇到了一个非常基本且非常人性化的问题。“我对与男性发生性关系的年轻男性的性行为很感兴趣,”她说。“我对导致这些风险时刻的原因做了很多定性研究,但我显然无法躲在床下弄清楚发生了什么。从那时起,我开始对创建虚拟环境产生兴趣。”

米勒想要创建一个互动游戏,让人类受试者可以决定是否进行危险的性行为,但她受限于她可用于创建脚本情境的技术。

答案是一个由“智能代理”组成的虚拟环境,这些角色的行为由设置其偏好和目标的算法——换句话说,人工智能——而不是固定的脚本来控制。米勒与南加州大学的计算机科学家和心理学家团队合作,开发了能够代表现实生活中人们行为的角色。这些角色填充了一个虚拟世界,并且可以以更自然的方式与人类研究对象互动,这实际上会产生关于没有风险的危险性行为的可操作研究数据。

“你可以让一个人参与其中,对智能代理的行为做出响应,然后塑造它的行为,或者你可以让所有代理交互并运行模拟,”米勒说。她的工作不仅帮助确定了风险行为的模式,还帮助确定了有效干预和减轻风险的方法。

在过去 15 年以这些原始虚拟环境为基础的获奖研究中,米勒和她的团队还了解了哪些干预措施最能有效限制性行为的风险——如果没有这些干预措施,这些都是不可能的人工智能。

她最近的工作已经进入神经科学领域,使用这些智能代理来模拟更复杂的人类过程,例如沟通能力以及人类如何通过社交互动来创造意义。

“目前人工智能的一个问题是,它只能达到一定程度,就能够推断出情绪,”米勒说。“话虽如此,当涉及到社交互动时,我们可以将某些概率和参数编程到我们的智能代理中,这些概率和参数实际上可以很好地模拟真实的人类在高度互动和灵活的环境中如何做出决定。”

虽然人工智能的未来很难预测,但米勒表示,前沿的人工智能研究人员已经在尝试利用人类大脑如何理解世界。“与任何创新一样,存在需要减轻的风险,”米勒指出。“但也有巨大的机会来加强干预和治疗,以显着改善沟通以及个人和社会福祉。”

解析极化

正如米勒所指出的,人工智能的优势之一是在庞大的数据集中寻找模式。Fred Cook 想要获取一个特别有争议的数据集——关于有争议的政治问题的社交媒体帖子——并找出人工智能是否可以帮助衡量围绕这些问题的辩论中的两极分化程度。

该过程始于公共关系中心为其2021 年全球传播报告进行的一项调查,该调查确定了公关专业人士认为他们在来年必须解决的几个主要问题。库克与公关公司 Golin 的高管分享了这些问题,他曾担任该公司的首席执行官(并且仍然拥有经济利益),然后与软件公司 Zignal Labs 分享了这些问题。

“鉴于当前的两极分化程度给人们、政府和企业带来的巨大问题,我们决定开发一种新工具来衡量它——并希望有助于减少它,”库克说。

他们的方法基于媒体偏见的广告字体图,该图根据一个轴上的左右政治光谱对媒体进行分类,另一个轴上的可靠性。Zignal AI 工具输入前 10 个热门政治问题,并将它们与社交帖子交叉引用,其中包括指向广告字体图表上出版物文章的链接。根据出版物在图表上的位置,该工具会分配一个分数,以确定大多数社交媒体分享在特定问题上的左或右程度。在一个问题上分享多少右派/保守派文章与分享多少左派/自由派出版物之间的差距给出了极化指数得分。

创建此分数所涉及的帖子数量(超过 6000 万)需要 AI 快速完成工作。

库克说:“极化指数提供了一张热图,显示了哪些问题最具争议性以及导致其分歧的因素。” “我们可以为可能想要参与这些主题的人、公司和传播者提供启示。”

库克还表示,公关从业者将不得不继续解决基于隐私、劳工、偏见和社会正义问题对人工智能的批评,但他补充说,他自己的经验表明,人工智能也可以在这些领域产生积极影响。

话虽如此,库克补充说,“每一项新技术都有其可怕的方面,人工智能与其他任何东西没有什么不同。虽然我们使用人工智能在我们的极化指数上做非常重要的工作,但人工智能可以而且已经被用来传播虚假信息并通过机器人影响政治运动。任何时候有新技术,都会有人以有害的方式使用它。

用人工智能猎杀人工智能

当谈到人工智能的积极和消极方面时,南加州大学安纳伯格分校的传播学博士生处于该研究的最前沿,他们将计算机科学和社会科学联系起来,以深入了解人工智能的技术和文化影响。

博士生 Ho-Chun Herbert Chang 说,他在达特茅斯学院的本科阶段是形成性的。“达特茅斯是 1952 年创造 AI 一词的地方,”他指出。“我学习数学和定量社会科学,在我的高级奖学金计划中,我做了一个关于人工智能的虚构项目。那是我从技术和人文角度看待人工智能的开始。”

随着学术生涯的发展,Chang 看到了从业者和公众对人工智能的看法之间的“鸿沟”。“从计算机科学的角度来看,更多的重点是设计算法的技术方面,”他说。“从人文方面来看,社会价值观是组织研究的主要原则。”

Chang 在过去一年从事的一个项目展示了人工智能研究人类行为以及其他人工智能系统行为的潜力。与通信和计算机科学副教授 Emilio Ferrara 合作,他的开创性研究确定了 Twitter 机器人如何影响 2016 年美国总统竞选,Chang 在 2020 年大选前帮助巩固了这项工作。使用名为 Botometer 的 AI 工具,该团队能够量化有多少围绕阴谋论的 Twitter 流量是由机器人生成和放大的。“Botometer 会查看每个 Twitter 帐户的时间线数据和元数据,使用机器学习来确定帐户是人类还是机器人,”Chang 说。

Chang 还与新闻学助理教授 Allissa Richardson 合作,分析明尼阿波利斯警方谋杀乔治·弗洛伊德之后的种族正义运动。“传播研究的很大一部分是关于用户如何参与社交平台——由算法介导——以及他们如何使用这些平台为民主运动自组织,”他说。“这就是我想做的工作。我正在全面参与人工智能,而安嫩伯格是进行这项研究的理想场所。”

Ignacio Cruz 的论文重点是在工作场所招聘中使用人工智能工具。也许不足为奇的是,他发现使用 AI 对求职者进行分类和推荐职位的招聘人员对 AI 的有效性有着两极分化的看法。“他们经常将人工智能视为对手或盟友,”现为西北大学博士后研究员的克鲁兹说。“有时招聘人员将这些系统视为节省时间的方法,作为盟友。但这些系统浮出水面的求职者往往与招聘人员的专业知识不相符。”

虽然承认人工智能的力量可以帮助人们从庞大的数据集中获得意义,但克鲁兹还警告说,不加批判地接受此类系统的输出可能会引发许多问题。使用人工智能作为沟通的中介是一种新现象,“我们只需要更多的教育和批判性的调查,了解这些技术在被部署到大众之前是如何开发的,”他说。

克鲁兹自己的研究表明,人工智能系统通常反映了开发者的偏见,因为它们在创建和实施过程中依赖于人类干预。“正在开发的人工智能是分散的,基本上不受监管,”他说。“如果这些技术真的能帮助我们创造更美好的明天,那么它们就需要有目的的设计,并且需要不断地进行审计——不仅是为了效率,还为了可持续性和道德。”

人工智能的沙漠

对于 Kate Crawford 来说,围绕 AI 潜力的许多公开对话的问题在于,缺乏任何关键的镜头来以 Cruz 建议的有意义的方式对其进行监控。

“我们受到围绕人工智能的大量营销炒作、广告和助推主义的影响,”传播学研究教授克劳福德说。“我所做的部分工作是研究人工智能不仅仅是一系列算法或代码的方式……而是真正研究围绕我们创建这些行星级计算网络时会发生什么的一系列更大的问题?谁?有收获,还有,谁输了?”

在她的新书“人工智能地图集:人工智能的权力、政治和成本”(耶鲁大学出版社,2021 年)的第一章中,克劳福德从她的锂矿之旅开始,为探索锂矿奠定了基调。人工智能的全球成本。她的毁灭性批评将人工智能描述为一个采掘业——无论是从字面上看,它的组件和功能都依赖有限的资源和劳动力,而形象地说,它消耗、分类和货币化的数据量。

“在研究这本书的过程中,我学到了更多关于人工智能系统对环境的危害,”克劳福德说。“服务器隐藏在不起眼的数据中心中,它们的污染质量远不如燃煤发电站滚滚的烟囱那么明显。”

Crawford 将像 Amazon Web Services 这样的东西所需要的能源描述为“巨大的”,并指出在这些平台上运行的人工智能系统对环境的影响正在持续增长。Crawford 说:“当然,该行业已经做出了巨大的努力来提高数据中心的能源效率并增加对可再生能源的使用。” “但是,人工智能的碳足迹已经与航空业的鼎盛时期相提并论。”

Crawford 表示,整个 AI 模型都是提取性和剥削性的,需要“重新架构”才能以不同的方式工作。“我们还需要监管和民主监督,”她补充说。“拟议中的欧盟人工智能法规提供了一个很好的起点,但这只是一项努力——我们还没有在美国或中国这两个最大的人工智能技术生产国看到类似的情况。”

克劳福德与她在南加州大学安纳伯格分校的同事合作,希望为重新构想的人工智能做出贡献。克劳福德与 Mike Ananny 以及一个由博士生和从业人员组成的团队合作开展了一个新的研究项目,该项目将分析所用数据集中的问题训练人工智能系统。

“人工智能可以帮助设计一个运输系统,将碳印记最小化,而不是最大化利润率,”传播学副教授 Ananny 说。“这是一个问题,我们想在我们的人工智能系统中最大化什么?它将问题推回给有权力的人,它说,这不是数据问题。这是一个价值观问题。”

克劳福德说,南加州大学安纳伯格的技术专长与对人类交流的深刻理解相结合,使其成为重新构想危害较小的人工智能的理想场所。

“我们希望这项研究将有助于南加州大学和更广泛的学术界如何看待人工智能的未来,就我们如何构建、使用和监管它而言,”她说。

走向人工智能伦理

作为媒体和技术研究的一部分,Annanny 是有关社会如何从大数据 AI 系统中获益的大型对话的学者和贡献者,同时仍保留(或更好地重建)可能存在的东西公认的道德和隐私。

尽管许多批评者和政策制定者提出了更严格的科技公司监管,这将迫使它们表现得更像公共事业,并提高透明度,但 Ananny 是那些认为监管改革还不够深入的人之一。

“我们允许资本主义机构拥有巨大的权力来商品化人们,允许财富不平等和财富集中——而数据只是其中的一部分,也是使这种情况永久化的一部分,”安尼说。“老实说,在你解决个人权力为零而公司拥有所有权力的晚期资本主义问题之前,你可以在法规的边缘徘徊,但这不会对问题产生任何实际影响。”

Ananny 赞同 Crawford 的工作,声称气候危机正在使人工智能作为采掘业的问题变得越来越紧迫。

“由于比特币服务器场的能源需求,我们不能让地球燃烧,”他说。“这些人工智能系统正在优化亚马逊在全球范围内运送产品的能力,这些产品具有巨大的碳足迹,因此人们可以将铲子送到他们的亚马逊盒子里。”

Ananny 确实指出,一些学者、科学家、活动家和政治家正在寻找机会,以不加剧气候紧急情况的方式利用 AI 计算能力的积极影响。

“这是我们用来创造一种新现实的语言,”安尼说。“数据集、统计确定性、优化、模型制作、错误检测——所有这些看似技术性的术语。但我们也需要处理价值观问题。让所有这些事情发生在如此巨大的规模上是否值得规模?在什么时候,就人力和材料成本而言,你是否太过分了?我们将不得不能够对特定的人工智能工具做出这些判断——包括,“不要建造它'”

本文为作者 三石 独立观点,并不代表 我是CIO 立场。

发表评论

登录后才能评论