
编者按:在人工智能浪潮席卷全球的当下,我们正站在一个前所未有的十字路口。最新研究揭示了一个令人深思的现象:超过七成的父母和六成的青少年相信,未来人类将深度依赖AI,甚至到了“离开它就无法正常生活”的地步。孩子们已悄然将AI融入日常学习,用聊天机器人替代传统搜索引擎。然而,这片科技蓝海下暗流涌动——信息偏见、事实幻觉、思维固化等风险正潜伏在看似便捷的交互中。作为数字时代的引路人,我们既要拥抱技术变革的脉搏,更需为孩子点亮理性辨思的灯塔。本文编译自权威报告,带你穿透AI迷雾,探寻人机共生的平衡之道。
父母与孩子们都预期AI将在他们的未来扮演重要角色。
根据非营利组织“常识媒体”(致力于帮助家庭做出媒体与技术明智决策的机构)最新报告,71%的家长和60%的青少年认为,当今年轻一代长大成人时,人类将对AI——特别是像ChatGPT和Gemini这类大语言模型——产生深度依赖,甚至达到“离开它们就无法正常运转”的程度。
事实上,12至17岁的青少年早已投身AI浪潮:调查发现,59%的青少年正使用AI搜索信息和事实资料。
“许多孩子,包括受访年龄段的孩子,正转向AI辅助学业,”老道明大学全球伦理与技术助理教授蒂芙尼·朱指出,“当他们需要快速获取信息时,越来越多的人选择向AI提问,而非在搜索引擎中输入问题。”
这种转变是否具有积极意义仍不明朗。以下是专家建议家长需要关注的要点。
虽然部分聊天机器人生成的内容无害,但有些可能暗藏问题。
“我们对大语言模型的算法内部缺乏足够清晰的认知,”常识媒体研究主管迈克尔·罗布坦言,并补充道,“错误信息和偏见无疑仍是其输出的组成部分。”
朱教授警示:“若不谨慎使用,这些机器人‘可能助长非黑即白的思维模式,削弱孩子的批判性思考能力’。”
例如,达特茅斯和斯坦福的研究人员发现某些聊天机器人存在针对特定少数群体的刻板印象。日本学者也在多种机器人中发现了“幻觉现象”——即事实性错误的输出模式。
OpenAI、Anthropic和谷歌等公司已着手研究并承认其AI工具可能展现的各类偏见与幻觉问题。
“我认为主要责任应落在AI公司和政府肩上,需要监管并改进主流AI工具的设计,”朱教授强调。
但对于希望确保孩子善用AI的家长,罗布建议就此与孩子展开对话。
他提醒:“由于聊天机器人有时会提供错误答案,务必让孩子明白‘对信息进行双重验证、追溯来源非常必要’。”
许多聊天机器人会显示信息来源。家长可引导孩子点击这些链接判断信源可信度,或通过其他渠道交叉验证信息一致性。
六种免费报税攻略
裁员危机前必知的4大财务应对策略
2026年理想月度退休收入标准解读
五张对抗通胀的超市优惠卡推荐





