首页

欢迎访问中国电子企业协会!

您现在所在的位置是:首页 >   > 正文

人工智能和人类有共同思维缺陷

2025-09-28

      参考消息网9月24日报道 据美国《福布斯》杂志网站8月24日报道,不久前,一家金融科技初创公司进行了一个简单的实验。公司给人工智能(AI)贷款审批模型提供了两个一模一样的申请人。在一份文件中,申请人被描述为“有稳定的工作记录,中间有两次短暂的空白期”。而在另一份文件中,措辞则截然相反,为“多次就业中断”。同样的事实,不同的呈现。

      结果如何?AI批准了第一笔贷款,却拒绝了另一笔。

      这时,创始人猛然意识到:机器并非中立。它像人类一样,会对语言做出反应。

       行为经济学家阿莫斯·特韦尔斯基和丹尼尔·卡尼曼几十年前就指出,人类并非理性的计算者。我们依赖启发式的捷径,这些捷径帮助我们快速做出决策,但却常常让我们误入歧途。令人不安的是,建立在我们的数据和决策基础上的AI也存在同样的缺陷。

      1.代表性:刻板印象陷阱

       我们混淆相似和现实。

       我们常常根据相似而非逻辑来判断概率。这就是为什么人们会认为“女权主义银行出纳员”比“银行出纳员”更有可能是真实存在的——这是经典的特韦尔斯基和卡尼曼情景,称为琳达问题。或者,我们会认为高个子一定是篮球好手,即使大多数人——包括高个子——并不打篮球。

       AI也难逃此陷阱。亚马逊公司曾经搁置了一款简历筛选工具,因为它一直偏爱男性程序员。原因何在?这个工具基于多年的历史招聘数据进行训练,而过去大多数程序员的工作的确由男性完成。另一个臭名昭著的案例是,一个图像识别系统把黑人标记为“大猩猩”。机器没有发明这种偏见,而是从人类的反应当中学会偏见。

       2.易得性:记住生动情况

       容易记住的事情让人感觉更真实。

       当例子生动且令人难忘时,我们会高估风险。2001年纽约世贸中心恐袭以后,许多美国人选择开车而不是坐飞机,明显夸大了飞机的危险性。鲨鱼袭击事件成为头条新闻,因此人们对它们的恐惧远甚于溺水或车祸,而溺水或车祸在统计数据上要常见得多。

       AI也犯同样错误。聊天机器人喜欢爆料名人的惊天丑闻,因为这些故事在网络占据主导地位,而那些更平凡常见的事件却被埋没。预测性的警务系统过度关注有很多逮捕记录的社区——不一定是因为这些社区更危险,而是因为“数据”在那里更容易被看到。如果让AI提供一张野外的照片,它会提供壮丽的山脉或波光粼粼的海洋景观,而不是一块常见的土地,因为人类很少拍摄土地的照片。

      3.锚定:首个数字会留痕迹

      我们看到的第一个数字会扭曲之后的一切。

      我们看到的第一个数字会萦绕脑海,扭曲之后的一切。购物者会因为执着于虚高的“原价”而高估折扣。即使是法官,在掷出更高点数后,也会做出更严厉的判决,而这个锚定点数本应无关紧要。让学生估算星巴克门店的收入,但首先让他们写下手机号码的后两位。手机号码高的学生总是给出更高的收入估算,尽管这两个数字显然毫无关联。

       AI的响应也同样容易锚定。问一个模型“为什么远程工作行不通?”它会列出一系列失败案例。把问题重新表述为“为什么远程工作蓬勃发展?”你得到的答案却截然相反。锚点在第一个短语就已确定。

      4.呈现:相同事实不同选择

      关键不仅在于数字,而在于你如何解读这些数字。

      信息呈现的方式会改变决策,即使事实完全相同。“90%存活率”的手术听起来远比“10%死亡率”的手术更有吸引力。投资者更倾向于购买那些被宣传为“有20%上涨潜力”的股票,而不是“80%不会上涨”的股票。

       AI也捕捉同样线索。情绪模型会根据你说的“前景改善”还是“前景恶化程度降低”产生不同的倾向。如果一款产品被描述为“省钱”而不是“避免亏钱”,AI营销系统就会改变语气。措辞改变呈现,输出也随之改变。

        5.避损:损失痛苦大于收益好处

       损失带来的痛苦远大于收益带来的愉悦。投资者持有亏损的股票,是因为卖出亏损股票的感觉就像锁定痛苦。对于免费获得的演唱会门票,如果有人想以公道的市场价格购买,大家也会拒绝,理由在于卖掉这些门票感觉就像放弃有价值的东西——即使他们自己不会以市场价格购买。

       AI也展现出其自身的损失规避。推荐系统会严重倾向于推荐安全、主流的热门歌曲,例如流行金曲,而不是冒险推荐一些可能失败的冷门佳作。而且,一旦模型训练完成,它就会固守旧的“先验”,即使新证据表明更好的路径,它也会拒绝更新。

      6.过度自信:编造精准幻觉

      我们听起来比实际更确定。

      我们总是高估自己的知识。企业家夸大他们创业成功的几率。即使数据并不支持,医生也会以不切实际的确定性做出大胆诊断。人们更相信像1249.36这样的精确值,而不是像1250这样的四舍五入值,即使它们来自相同的数据。

      AI也是如此。生成模型会满怀信心地编造引文或其他“幻觉”,仿佛在传递福音真理。预测系统会给出狭窄的概率范围,忽略现实生活中复杂的不确定性。就像我们一样,它们在不应该确定的时候显得很确定。

     7.概率加权:扭曲误读概率

      微小的机会看起来更大,而大的机会看起来更小。

      人类会夸大小概率,而低估大概率。这就是为什么无数人不顾荒谬的概率购买彩票,或为电子产品的延长保修支付过高的费用。

      AI也会误读概率。欺诈检测系统会对罕见的异常情况发出警报,而聊天机器人有时会给出戏剧性但不太可能的答案——轻描淡写那些更有可能发生的无聊而常见的结果。

      8.现状:偏爱熟悉的事物

     即使存在更好的选择,我们也会抓住我们知道的东西不放。

      改变让人感觉有风险,所以我们抓住我们知道的东西不放。当注册方式从要求个人选择加入转变为自动选择加入而主动选择退出时,退休储蓄就会激增。即使在出现更便宜的流媒体选项之后,许多家庭仍然坚持使用昂贵的有线电视套餐。

      AI也偏爱熟悉的事物。自动完成功能会重复使用常见的词组,甚至重复常见的拼写错误,将语言锁定在可预测的框架中。法律AI工具严重依赖先例,重复“一直以来都是怎么做的”,而不是开拓新的领域。

      人类的偏见作为生存捷径演变而来。在当今世界,它们常常适得其反。与此同时,AI的偏见是我们数据和设计选择的阴影。它们结合在一起,形成一个反馈循环:人类的偏见训练机器,机器又将这些偏见强化到我们身上。

       危险不仅仅在于AI会有我们的偏见,更在于它会大规模、快速、精准、权威地这样做。人类的一个偏见可能导致一次糟糕的投资或一次错误的判断。AI的偏见在数百万次互动中被放大后,可以悄无声息地改变市场、政策和信念。

      问题不在于AI是否会有偏见,它已经存在。真正的问题是:我们该如何应对?这正是我在“怀疑智能”项目中探索的问题。(编译/赵菲菲)