科技行业试图减少人工智能普遍存在的偏见。现在特朗普想要结束其“唤醒人工智能”的努力

  • caonima 2025年04月30日 15:48:06 5阅读
  • 剑桥,质量。(美联社)——在放弃了工作场所的多样性、公平和包容性项目后,科技公司现在可能面临第二次清算,即他们在人工智能产品中的DEI工作。

    在白宫和共和党领导的国会,“苏醒的人工智能”已被取代,成为一个需要解决的问题。根据众议院司法委员会(House Judiciary Committee)上月向亚马逊(Amazon)、b谷歌、Meta、微软(Microsoft)、OpenAI和其他10家科技公司发出的传票,过去在人工智能开发中“促进公平”和遏制“有害和有偏见的产出”的努力是调查的目标。

    美国商务部的标准制定部门在呼吁与外部研究人员合作时,删除了人工智能公平、安全和“负责任的人工智能”等字眼。相反,根据美联社获得的一份文件副本,它指示科学家专注于“减少意识形态偏见”,以一种“使人类繁荣和经济竞争力”的方式。

    在某种程度上,科技工作者已经习惯了华盛顿主导的优先事项对他们工作的影响。

    但这一最新转变引起了该领域专家的担忧,其中包括哈佛大学社会学家埃利斯·蒙克(Ellis Monk)。几年前,b谷歌与他接洽,希望他能帮助b谷歌提高人工智能产品的包容性。

    当时,科技行业已经有了人工智能的一个分支,可以训练机器“看到”和理解图像。计算机视觉具有巨大的商业前景,但也呼应了早期相机技术中发现的历史偏见,即以不讨人喜欢的方式描绘黑人和棕色人种。

    “黑人或深肤色的人会出现在照片中,我们有时看起来很可笑,”肤色歧视(一种基于人们肤色和其他特征的歧视)学者蒙克说。

    谷歌采用了Monk发明的色阶,改进了其人工智能图像工具描绘人类肤色多样性的方式,取代了几十年前最初为医生治疗白人皮肤病患者设计的标准。

    “消费者对这些变化肯定有非常积极的反应,”他说。

    现在,蒙克想知道这样的努力将来是否会继续下去。虽然他不认为他的僧侣肤色量表受到了威胁,因为它已经被应用到b谷歌和其他地方的几十种产品中——包括照相手机、视频游戏、人工智能图像生成器——但他和其他研究人员担心,这种新的情绪正在冷却未来的倡议和资金,让技术更好地为每个人服务。

    “b谷歌希望他们的产品适用于印度、中国、非洲等地的所有人。这部分是神免疫的,”蒙克说。“但未来对这类项目的资助会减少吗?”当然,当政治情绪发生变化时,当有很大的压力要迅速进入市场时。”

    特朗普对人工智能的主题进行了删减和触及,但它对聊天机器人和其他人工智能产品的商业发展的影响更为间接。在调查人工智能公司时,司法委员会主席、共和党众议员吉姆·乔丹(Jim Jordan)表示,他想弄清楚前总统乔·拜登(Joe Biden)的政府是否“强迫或勾结”他们审查合法言论。

    白宫科技政策办公室(Office of Science and Technology Policy)主任迈克尔·克拉西奥斯(Michael Kratsios)本月在德克萨斯州的一次活动上表示,拜登的人工智能政策“以公平的名义促进社会分裂和再分配”。

    特朗普政府拒绝让克拉西奥斯接受采访,但引用了几个例子来说明他的意思。其中一条来自拜登时代的人工智能研究战略:“如果没有适当的控制,人工智能系统可能会放大、延续或加剧个人和社区的不公平或不受欢迎的结果。”

    甚至在拜登上任之前,就有越来越多的研究和个人轶事引起了人们对人工智能偏见危害的关注。

    自动驾驶汽车技术很难检测到肤色较深的行人,这使他们面临更大的被碾过的危险。流行的人工智能文本到图像生成器生成外科医生的照片时发现,98%的情况下,它们生成的是白人男性,即使在一个男性占主导地位的领域,这一比例也远远高于实际比例。

    用于解锁手机的人脸匹配软件错误地识别了亚洲人的面孔。基于虚假人脸识别匹配的美国城市警察。十年前,谷歌自己的照片应用程序将两个黑人的照片归类为“大猩猩”。

    就连特朗普第一届政府的政府科学家也认为,面部识别技术在种族、性别或年龄方面表现不均衡。

    拜登的当选促使一些科技公司加速关注人工智能的公平性。2022年OpenAI的ChatGPT的到来增加了新的优先事项,引发了新的人工智能应用程序的商业繁荣,用于编写文档和生成图像,迫使谷歌等公司放松警惕,迎头赶上。

    然后是b谷歌的双子座人工智能聊天机器人——去年推出的一款有缺陷的产品,将使它成为保守派希望打破的“觉醒人工智能”的象征。如果任由人工智能工具按照书面提示生成图像,它们很容易延续从它们所接受的所有视觉数据中积累的刻板印象。

    b谷歌也不例外,根据该公司自己的公开研究,当被要求描绘不同职业的人时,它更倾向于选择肤色较浅的面孔和男性,而当被选择女性时,更倾向于选择年轻女性。

    b谷歌在一年前推出Gemini的人工智能图像生成器之前,曾试图设置技术护栏来减少这些差异。最终,它将有色人种和女性置于不准确的历史背景中,比如,为了回应美国开国元勋的要求,它使用了穿着18世纪服装的男性形象,这些男性似乎是黑人、亚洲人和印第安人。谷歌迅速道歉,并暂时关闭了这一功能,但这种愤怒变成了政治右翼的战斗口号。

    今年2月,b谷歌副总裁JD万斯在巴黎谴责“通过人工智能推进完全非历史的社会议程”,b谷歌的人工智能图像生成器“试图告诉我们乔治·华盛顿是黑人,或者第一次世界大战中美国的面团实际上是女性”。b谷歌首席执行官桑达尔·皮查伊坐在旁边。

    “我们必须记住那个荒谬时刻的教训,”万斯在会上宣称。“我们从中得到的是,特朗普政府将确保在美国开发的人工智能系统不受意识形态偏见的影响,永远不会限制我们公民的言论自由权。”

    出席演讲的前拜登科学顾问阿隆德拉·纳尔逊(Alondra Nelson)表示,特朗普政府对人工智能“意识形态偏见”的新关注,在某种程度上是对多年来解决算法偏见的工作的认可,这种偏见可能影响住房、抵押贷款、医疗保健和人们生活的其他方面。

    “从根本上说,说人工智能系统在意识形态上有偏见,就是说你发现、认识到并担心算法偏见的问题,这是我们许多人长期以来一直担心的问题,”纳尔逊说,他是白宫科技政策办公室(Office of Science and Technology Policy)的前代理主任,负责保护人工智能应用中的民权和公民自由。

    但在对公平的人工智能计划的诋毁中,尼尔森认为合作的空间并不大。

    她说:“我认为,不幸的是,在这个政治领域,这是不太可能的。”“令人遗憾的是,已经被不同命名的问题——一方面是算法歧视或算法偏见,另一方面是意识形态偏见——将被视为两个不同的问题。”

    0