
【编者按】在人工智能浪潮席卷全球的今天,我们既惊叹于它处理邮件、规划行程的高效,也困惑于它何时该用、何时不该用。作为AI战略顾问的作者,在八年深度使用中总结出四条“绝不交给AI”的底线:关乎命运的决策、价值观的权衡、现实的校验,以及人性的联结。这并非技术悲观主义,而是清醒的共生智慧——当算法试图包办一切时,真正稀缺的恰是人类独有的责任、伦理与温度。以下译文将带你穿透技术迷雾,找回掌控感。
人工智能已从可选工具,变成我们许多人日常必遇的存在。工作中,它或许用来起草邮件或总结文档;家庭里,可能用于规划旅行、安排家庭事务,或纯粹探索有趣点子。
作为AI战略顾问,我协助各类组织将人工智能合乎伦理地融入工作流程与体系。过去八年间,AI助我梳理难题、提速进程,并探索那些单凭自己可能无法触及的选项。
尽管AI工具实用,但在某些情况下,我深知亲力亲为会更富价值、更见效。以下四件事,你绝不会看到我交给AI处理。
AI擅长生成不同选项,但务必记住:它仅是工具,无法为任何情境的结果承担责任。
当决策涉及我或他人的财务、声誉或战略方向时——比如审批开支、发布分析报告——责任不会转移给工具。
AI可以辅助思考,但最终决定权在你手中。如果输出有误,承担后果的依然是你。我的最佳建议是:根据风险高低,匹配相应的审慎程度。
我不依赖AI判定何为公平、恰当或无偏见。AI工具反映的是数据模式,而非个人原则或组织的风险承受力。它们能提供常规数据,却无法选择价值观。
招聘就是典型例子。AI筛选工具可能因简历空窗期淘汰候选人——历史上空窗常与低留任率相关。但人可能看到另一面:一位照护者、退伍军人,或经验能强化团队的人。
概率引擎与人类,面对同一信息很可能做出截然不同的判断。
AI即使出错或过时,听起来仍充满自信。这种自信易诱人轻信,但核实始终关键。事实、假设与可行性,都需对照现实约束与当前状况检验。
我曾见模型自信引用税法或判例,而它们早在数月前已被推翻。尤其在金融、法律、医疗或政策领域,你需要的是准确,而非基于片面信息的速度。
AI能帮忙起草信息,但无法察言观色或修复破裂的信任。它不懂共同经历或权力动态。当项目错过关键截止期,AI生成的邮件或许礼貌且合乎逻辑。
但如果客户已感沮丧,同一信息可能显得冷漠或推诿。何时该跳过邮件、直接拨通电话——这是基于情境的人类智慧。
对我而言,目标不是少用AI,而是有意识地使用。动用AI前,我会暂停自问:
如果出错,后果有多严重?
这事是否需要仅我能提供的判断或价值观?
依赖AI是否会弱化我需要培养的能力?
AI是在助我思考更清晰,还是仅让我动作更快?
我能否为此决策负责,而不归咎于工具?
AI力量强大。这股力量既可支持判断,也可悄然取代判断。区别在于:你选择在何处保持参与。





