10本书讲述AI时代的人类命运
创始人
2026-03-15 06:46:30

来源:市场资讯

10本书讲述AI时代的人类命运

李华芳 | 匹兹堡大学

AI的迅猛发展早已渗透进我们生活的每一个角落。从送餐算法到社交媒体的信息流,从自动生成文本的大模型到决定谁该接受社会服务的评分系统,人工智能正在悄无声息地重塑我们的世界。然而,我们听多了高歌猛进的叙事,却很少关注那些不光彩的暗面:工人被算法困在系统里,孩子们被社交媒体绑架,AI公司用宏大叙事掩盖技术带来的偏见,而人类的理性正在不知不觉间让位于机器算法。

我们活在AI的阴影下。那么出路在哪里?这篇文章选择了我前面评论过的十本与AI或更广义的技术有关的书籍,从不同角度揭示了技术的神话与代价,也给出了务实的应对之道。

1、被算法遮蔽的真实代价

技术的便利从来不是免费的。匹兹堡的工程师阿明给Uber Eats送餐赚零花钱,却发现自己每单都被少算距离。他开发了一款名为UberCheats的插件,记录Google Maps距离与Uber汇报距离的差异,结果发现Uber的确每单都“偷”里程。插件最终被下架,因为Uber强大的法律团队起了作用。

这个故事出自 Madhumita Murgia 的著作 《Code Dependent: Living in the Shadow of AI》。书中记录了许多类似的案例:在算法平台的规则之下,普通劳动者几乎没有议价空间。阿明的遭遇并非孤例——在全球各地,外卖骑手、网约车司机都被困在算法里,申诉无门,只能接受系统的暗中剥削。

这只是冰山一角。当OpenAI和Meta们攻城略地,背后却是非洲的“数字民工”三班倒标记有害内容——谋杀、虐童、极端暴力。他们的收入虽比当地平均水平高,却承受着巨大的心理伤害。有人开始对服务的大型科技企业提起诉讼,但杯水车薪。AI越智能,背后的劳动密集型产业就越庞大,而劳动者分得的收益却微乎其微。

更可怕的是,AI的偏见正在毁掉具体的人。女性的脸被Deepfake合成到色情网站上,投诉无门;黑人被AI错误识别为罪犯的概率远高于白人;执法部门依赖算法配置警力,却因数据残缺而可能酿成冤假错案。AI的偏见,不过是社会偏见的再生产。正如研究者指出的,IQ测试的历史早已警示我们:把复杂的人类能力压缩成一个指标,然后据此排序,本身就是问题。今天的大模型热,正在重复同样的错误。

亚马逊仓库里,工人成了机器的奴隶。工人每小时必须分拣350-400件物品,低于标准就会被警告。机器人让效率提升数倍,但原本需要10000人的仓库,现在只需要1000人——另外9000人“被消失”了。工人受伤率是传统仓库的四倍。

“你的方便一定有人付代价。”这句话在数字时代依然成立。不改变治理结构,科技并不会改变底层人的命运。

2、社交媒体如何劫持我们的大脑

如果说AI正在重塑劳动世界,那么社交媒体则在重塑我们的心智。神经科学家告诉我们,我们的大脑还是石器时代那一套,几万年没变,却要应对屏幕时代。

Richard Cytowic 在 《Your Stone Age Brain in the Screen Age》里提到电子内容放大大脑的劣性:偷懒、及时刺激,导致我们越来越自闭。我们需要大自然,却只看Instagram照片;需要面对面讨论,却只会在网上喷垃圾话。社交媒体就是电子毒品,它破坏我们亲身经历、面对面互动的能力,强化偏见,让人越来越极化。

注意力是有限的,多任务处理只会增加转换成本。屏幕设计就是要攫取你的注意力,而静默才是终极奢侈品。大脑需要静默来代谢有害内容。就像挑食品要挑健康的,我们也要挑信息——天天吃屏幕垃圾,脑子怎能健康?

更令人担忧的是青少年。越来越多的孩子出现心理健康问题,与过早接触手机和社交媒体高度相关。数据显示,青少年抑郁、睡眠不足、与朋友相处的时间减少,这些趋势与智能手机普及的时间线高度重合。

家长把手机扔给孩子,往往只是为了图自己片刻的清闲——而这段能和孩子相处的时间,其实非常短暂,错过了就再也回不来。

3、AI的谎言:我们都被骗了?

围绕AI的宏大叙事,很大程度上是一场由科技公司、资本和媒体共同推动的“技术神话”。AI的偏见来自社会偏见,但科技巨头却把它包装成中立的技术问题。Emily M. Bender 和 Alex Hanna 在 《The AI Con: How to Fight Big Tech’s Hype and Create the Future We Want》 中就指出,围绕AI的很多讨论,本质上是一种精心制造的“技术神话”。

效率之外,责任被忽略了:美国饮食失调协会用聊天机器人Tessa取代人工热线,结果机器人给出有害建议,下线后原热线也未恢复,形成服务空白。

政府热衷于AI,往往不是因为技术先进,而是因为它符合官员的激励——用更少的钱提供更多服务,但公平和责任却被抛在脑后。匹兹堡的儿童虐待风险筛查系统,本意是优先帮助最需要的家庭,结果却导致更多孩子被送入社会抚养系统。政策工具一旦进入复杂制度环境,后果往往难以预测。

AI还会“幻想”,捏造不存在的文献。当AI的答案超出人类知识范畴时,我们如何判断可信度?过去我们靠媒体和大学中介信息,现在AI直接生成内容。

AI没有耐心等待智慧,而我们却正在让渡决策权。

4、组织的出路:领导者何为

面对这样的局面,组织领导者该何去何从?大量企业投入巨资引进AI,却收效甚微,原因在于领导者只看到两种视角:用AI替代人工以提效,或用AI增强人类以创新。真正的出路是第二种。

David De Cremer在《The AI-savvy Leader: 9 ways to take back control and make AI work》中提到技术千变万化,组织宗旨却相对恒定。领导者需要学习、设定目标、包容员工、扁平沟通、平衡利益、保持同情、明确使命、提升情商。把员工纳入反馈圈,创造面对面社交机会,奖励“人之所以为人”的那一面。领导力永远是关于人的。

不管技术千变万化,人的预算总是有限。一天24小时,大脑处理信息的能力都有限。所有管理决策如果忽视了人的局限,哪怕打着AI的名义,也注定不会成功。

同时,领导者也需要“数字思维”。正如Tsedal Neeley和Paul Leonardi在《The Digital Mindset: What It Really Takes to Thrive in the Age of Data, Algorithms, and AI》中提到的,领导者不是要成为技术专家,而是知道个大概,足够判断别人是否胡说八道。有数字思维的员工更满意、更容易成功;领导者有数字思维,更容易设立成功基础。关键是培育适应数字化的文化,让员工内化这些态度和行为。

5、个人的自救:在数字耗竭中找回自己

AI时代不是应该高效工作乐享生活吗?为什么常常精疲力竭?不是简单的累,而是一种持续的、低强度的精疲力竭。对于我们每个人,数字耗竭已成常态。Paul Leonardi在《Digital Exhaustion: simple rules for reclaiming your life》提出原因有三:注意力破碎、情绪焦虑、大脑碎片化。我们平均每天花近一小时在不同APP间切换,每次切换都有认知成本。但我们可以自救。

Leonardi还提出了8条简单规则:

  1. 1. 用足工具:分开工作和家庭工具,聚焦那些不耗费精力的应用。

  2. 2. 用趁手工具:选最能帮你达成目标的工具,传统纸笔有时就是最好的。

  3. 3. 批处理+流处理结合:相似内容分批处理,而不是随时回应信息流。

  4. 4. 等一等:根据轻重缓急,设置等待时间。

  5. 5. 不做假设:别过度阐释他人的网络形象,那只是自选择的呈现。

  6. 6. 有意识行动:问自己“现在要做什么”,带着意图去行动,而不是被动响应。

  7. 7. 间接学习:不必没苦硬吃,多向他人请教。

  8. 8. 在场,而不是漂移:珍惜当下,身在此心就在此。

数字耗竭不是你的个人失败,而是技术基础设施、组织规范与评价体系共同作用的结果。路还得自己走,但工具在手,不必慌张。

甚至,发呆也是一种对抗。静默让大脑有机会代谢有害内容。如果你发现自己离不开手机,不妨试着发一会儿呆。

6、AI时代如何养孩子

AI时代养孩子,焦虑的肯定是家长和老师。

10条规则如下:

  1. 1. 家长做主:制定规则并解释原因。

  2. 2. 不要把手机带进卧室:保证睡眠,避免夜间刷屏。

  3. 3. 16岁或更大才能用社交媒体:避免恶意和攀比,保护心理健康。

  4. 4. 第一个手机只有基本功能:打电话发短信即可。

  5. 5. 等到拿驾照再给智能手机:电子设备比车危险。

  6. 6. 设置家长控制权限:限制下载和付费。

  7. 7. 设立无手机区:如餐桌、睡前聊天,强制面对面交流。

  8. 8. 鼓励现实生存能力:学会做饭、洗衣、打扫。

  9. 9. 检查所有电子设备:电脑、游戏机、iPad也不例外。

  10. 10. 倡导学校不用手机:让学生专心学习,增加面对面互动。

核心思想很简单:不要太早给孩子电子设备,尤其是在家长无法监督的情况下。他们能和想烦你的时间其实很短,你不抓住这段不可逆的时光,大概率要后悔。

小结

十本书读下来,我最大的感受是:AI的阴影,说到底还是人性的阴影。

技术只是放大镜,放大了已有的不平等、偏见和贪婪。但人性中也有韧劲、同情和智慧。走出阴影,既需要组织领导者回归以人为本的管理,也需要个人有意识地去夺回生活的主动权,更需要我们为下一代守住一片不被算法绑架的童年。

正如我之前写过的:我们要保持乐观,但不要轻信神话。技术会继续发展,但决定未来的,仍然是人类自己。

所以走出AI阴影,重点不在于盯住AI这一头,而在于回望人性那一头。

    相关内容

    热门资讯

    华为申请下行测量方法以及通信装... 国家知识产权局信息显示,华为技术有限公司申请一项名为“一种下行测量方法以及通信装置”的专利,公开号C...
    北斗+无人机,“慧”眼识“春”... 新华网济南3月14日电(秦来玲)“起飞!”近日,在山东省肥城市安驾庄镇洼里村,随着种粮大户陈瑶一声指...
    【万企兴万村】渥泰科技:物联网... 编者按 自“万企兴万村”行动启动以来,江西省工商联引导广大民营企业投身乡村振兴,把企业的资金、技术、...
    “太空菜园”再迎丰收,樱桃番茄... 中国空间站“太空菜园”又迎来丰收,“太空番茄”长势喜人。神舟二十一号乘组近期对成熟的樱桃番茄进行了拍...
    科技周报|Meta计划大规模裁... Meta计划进行大规模裁员 当地时间3月13日消息称,Meta 计划进行大规模裁员,这可能会影响到公...