微言 | 和AI聊了6个月后讨说法,算法为何让人深陷幻觉?
创始人
2025-11-10 03:00:48

来源:市场资讯

(来源:文汇报)

最近一则“保安和AI对话6个月,打印50万字聊天记录要讨说法”的新闻引发全网关注。

据报道,某地保安全先生与AI讨论关于诗词签约事宜,对方回应其创作的“诗词”可签约、分稿费,还给出了一份详细的授权签约备忘清单:包括时间、地点、必带物品、流程,还留言:“随时留言,我一直在”。可直到签约谈判始终无法推进,全先生才发现AI“说话不算数”,于是带着聊天记录前往相关公司“维权”。

这则让人忍俊不禁的新闻,已经展现了AI技术便利带来的认知鸿沟与情感迷思。国内知名人工智能研究专家、清华大学教授沈阳认为,这是一个象征性的社会事件,揭示了人工智能时代全新的“人机幻觉”:当语言模型在语义上具备情感表达能力后,普通人极易把这种算法生成的“关怀”,误认为真实的情感回应。

人类在与人工智能的交流中,把AI当做“知己”的“情感错位”,在未来的人机互动中注定会成为常见的社会现象。AI能够回应快速需求,却不能承载责任,当大脑认知无法区分虚拟回应与真实情感时,就会出现“幻觉比真情更稳定”的认知偏差。

面对这种易产生误解的人机交互环境,首先需要加大AI科普力度。如今AI应用发展之快、覆盖之广早已超出大众想象,普通人必须更多地了解AI的“工具属性”与功能边界,否则很容易出现混淆真人和AI的情况。事实上,记者注意到,保安大哥与AI的所有聊天界面下方,均标注着“本回答由AI生成,内容仅供参考,请仔细甄别”的提示,只是这一关键信息未被重视。认知到位,才是防范风险的第一道防线。

更重要的是,相关平台需筑牢技术监管的“防护墙”。AI的回应不该是“无底线的讨好”,而应是“有边界的服务”。对于涉及金钱交易、合作签约等实际权益的场景,AI软件不能随意给出承诺,必须设置明确的回应边界与监管机制——既要完善防沉迷功能,更要防范算法被不法分子利用,沦为诈骗工具。

相关内容

热门资讯

原创 百... 5 月 13 日,Create2026 百度 AI 开发者大会在北京盛大启幕。百度创始人李彦宏在会上...
英伟达CEO黄仁勋称五年前的G... IT之家 5 月 13 日消息,在 AI 需求进入爆发周期的背景下,GPU 成为最紧缺的算力资源之一...
埃尔温·薛定谔:物理学最不情愿... 今天,我们面对的是一位巨匠。 他叫埃尔温·薛定谔。 在翻开他的故事之前,我想请你做一件事:想象一个盒...
破解40万年前直立人“分子密码... 中新网北京5月13日电 (记者 孙自法)作为第一个走出非洲并广泛扩散至亚欧大陆及东南亚的关键古人类,...
前华为具身智能“1号员工”领衔... 5月13日消息,深圳欧拉万象科技有限公司(下称“欧拉万象”)宣布完成数亿元人民币融资,由招商局创投领...