这家公司,81%的老美没听过!

2025-12-28 发布 · 浏览22次 · 点赞0次 · 收藏0次

【导读】2025年,AI像空气一样无孔不入,可我们却越来越不敢呼吸。一份跨越全美的民调戳破了科技繁荣的假象:在高效的背面,是蓝领的倒计时和白领的盲目。当「跑赢对手」不再重要,我们该如何守住身为人的最后那份解释权?

过去20年,那些影响深远的技术,电视,电脑,互联网,智能手机都指向同样的结局:被惊叹,被接纳,被依赖,直到如同呼吸一般理所当然。

但这一套逻辑,放在AI身上却行不通了。

它在极短的时间里渗透进我们的生活,可始终没赢得我们的信任。


美国公众对AI重要性的判断。多数人将AI视为与智能手机相当的重要技术,而非蒸汽机、电力等「文明级」基础设施。

AI在人们的认知里,既不像互联网,也不像智能手机,反倒像一种新型的社交媒体——高效,粘人,以及......威胁。


美国公众对不同技术整体社会影响的净评价对比。AI的整体好感度明显低于互联网与智能手机,更接近社交媒体

人们从对技术的狂热中抽身,第一次认真地审视这位「新朋友」:我们真的要把未来,全盘托付给AI吗?

先用,再理解:AI正在变成新的「黑盒中介」

很多人都用AI,但真正懂它的人,远比想象的少。

这并不是某些科技公司的年度总结,而是来自Searchlight Institute的一份全国性民调。

比起模型性能,调查者更关心一些实际的问题:当AI真正进入生活,人们如何看待它?为什么感到不安?

调查结果很扎心:接近一半的受访者认为,像ChatGPT这样的工具只是在「翻数据库」,或者是照着某种预设的脚本回答。

工具与公司之间的认知断开。ChatGPT家喻户晓,但仍有四成以上的人从未听说过OpenAI;像Anthropic这种处于核心技术圈的公司,八成以上的人完全没听过。


美国公众对主要科技公司的认知对比。与Google、Amazon等传统科技公司相比,AI公司仍处在大规模「认知空白」中。

先使用,再理解,这是一种十分危险的「逻辑倒置」。

当我们把查证、筛选、总结这些环节交给AI,却并不清楚它如何运作、依据什么做判断、又在受谁影响时,权力的天平已经悄悄倾斜。

报告中有一个细节:AI正在成为一种新的「信息中介」。

越来越多的人不再直接触碰原始信息,而是习惯于先看一眼由模型生成的摘要、排序和解释。

这意味着,无论是公共议题还是健康资讯,在我们看到之前,其实已经被AI 「加工」过了。

当这种过滤成为一种潜移默化的习惯,问题就不仅是信息来源准不准确,而是——我们看到的,是真实的世界,还是AI编造出的世界?

同一项技术,不同的生存直觉

在调查中,白领群体对AI的接纳度更高。

他们熟练地将其接入写作、整理与分析的流程。对他们而言,AI是生产力的加速器,是效率的延伸。

但在服务业与体力劳动者的视野里,看法完全相反。超过一半的服务业从业者认为,AI终将取代他们当下的生计。

他们从不纠结模型的好坏,也不关心版本的更迭,他们只在意——这个系统,是在帮我,还是在瞄准我。

这恰恰是这份调查最残酷的地方。AI制造的分裂,从来不是会不会用,而是身处不同位置时的生存直觉。

对白领来说,AI替他们承担着琐碎且低风险的杂务;但对服务业者而言,AI会侵占那些标准化的、可复制的、容易被数据衡量的劳动。


美国AI用户的主要使用场景。当前AI更多被用于信息获取、文本处理等认知型任务,而非直接介入现实生产劳动。

同一项技术,一边看到的是效率提升,一边看到的却是失业倒计时。


美国公众对AI与工作的关系判断。

这种担忧,并不只存在于某个行业。大多数的美国人相信AI会取代工作,而不是补充工作。

这种恐惧也并非平均分布。在调查中,医生、电工、维修工人对「被取代」的担忧明显更低。

因为他们深知,真实的物理世界充满了模糊的情境与未知的现场,这是目前的算法难以踏足的禁区。

在那些关乎生死的瞬间,人类无法将「道德责任」转嫁给一段代码。

AI可以处理海量的数据,却无法做出「该不该」的抉择;它能给出精准的建议,却无法为最终的后果负责。

在这条无形的裂缝之上,AI不仅是进步的象征,它更像一面照妖镜,冷冷地照出了职业与阶层之间,那份本就不对等的风险承担。

2025的转向:速度,不再是最高价值

在「该怎么办」这件事上,人们的态度出奇地一致。

超过三分之二的受访者认为,政*目前对AI的监管实在太少了。

这不是要求公司按下暂停键,更不是要封杀技术本身,而是一种明确的价值取向:AI可以继续发展,但前提是,它必须被测试、被约束、被追责。

真正耐人寻味的,是那道关于「速度与安全」的选择题。

当「监管可能导致在国际竞争中落后」这个尖锐的筹码被摆上桌面时,大多数受访者依然没有动摇。

相比于「不受限制地领跑」,他们更愿意接受一个虽然更慢、但更安全的版本。

这是一次极其清晰的叙事反转。长期以来,技术进步总被包装成一场不能停下的军备竞赛——慢一步就会被超越,犹豫一下就会被淘汰。

但在AI这件事上,普通人开始意识到:赢得比赛的奖励,与失败后要承担的后果,往往并不是同一群人。


在涉及国际竞争的前提下,美国公众仍明显倾向于优先制定AI的安全与隐私规则。

如果胜利的代价是工作的动荡、隐私的暴露,判断权的让渡,那么即便技术指标遥遥领先,这种胜利也无法让人感到安宁。


美国公众对AI风险的主要担忧及监管优先级。多数关注集中在就业、隐私与信息秩序等现实层面。

调查中还有一个更极端的假设:在「完全不受监管的AI」与「干脆禁止发展」之间,多数人并没有投给前者,甚至陷入了长久的迟疑。

这种迟疑本身就是一种表态。公众不再迷信「技术越快越好」,他们正在权衡风险是否已经逼近了个人生活的底线。

不是所有决定,都该交给算法

在这份调查里,人们表现出的并不是盲目排斥。相反,大家对AI的认知相当清醒。

它确实更高效、更快,也更擅长处理那些规则明确的事务。

但当问题开始变得模糊,当后果需要被具体的某个人承担,当判断牵涉到复杂的价值取舍时,信任并没有盲目地向技术倾斜。

这也是为什么,在「道德」、「复杂决策」与「透明度」这些维度上,人类依然被视为不可替代。

AI可以给出看似完美的答案,但它并不生活在答案带来的后果里。

所谓的防线,也不是要阻挡技术的浪潮,而是要守住判断的权力,责任的链条,以及对错误最起码的承担。

当信息开始被算法过滤,当工作被系统重构,当越来越多的决策发生在我们看不见的「中间层」,人类真正需要保护的,是那份对世界的解释权:谁有权做决定,谁又必须为这个决定负责。

这也让2025年显得格外不同。

在这一年,人们开始停下来问:在AI走得更远之前,我们有没有把那道属于人的边界,画得足够清楚。

参考资料:

https://x.com/rohanpaul_ai/status/2003646532676194634

https://www.searchlightinstitute.org/research/americans-have-mixed-views-of-ai-and-an-appetite-for-regulation/

秒追ASI

⭐点赞、转发、在看一键三连⭐

点亮星标,锁定极速推送!

这家公司,81%的老美没听过! - AI 资讯 - 资讯 - AI 中文社区

声明:本文转载自新智元,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。本站拥有对此声明的最终解释权。如涉及作品内容、版权和其它问题,请联系我们删除,我方收到通知后第一时间删除内容。

点赞(0) 收藏(0)
0条评论
珍惜第一个评论,它能得到比较好的回应。
评论

游客
登录后再评论
  • 鸟过留鸣,人过留评。
  • 和谐社区,和谐点评。