
尊敬的编辑:
爱尔兰近期发布的《2026-2030年医疗人工智能战略——“AI for Care”》,为我们的医疗服务绘制了一份值得欢迎但极度谨慎的路线图。然而,作为一名身处技术一线的从业者,我认为该战略忽视了一个关键的行为风险:即“我在家能用得更好”的问题。
人工智能的本质具有独特的普及性。与需要庞大基础设施的上一代企业软件不同,如今世界上最强大的前沿模型,任何拥有智能手机并支付每月15欧元订阅费的人都可以使用。这在医护人员个人生活中使用的工具与他们工作中接触的官方、受监管系统之间,制造了一个危险的能力鸿沟。
我已经目睹了这种紧张关系的上演。最近有几家医院严厉提醒员工,严禁使用个人AI工具,但这些机构自身却迟迟未能提供任何功能完善、安全的替代方案。
许多医生私下承认,当临床环境中时间紧迫时,他们干脆会掏出手机,向公开可用的AI工具寻求咨询。这并非缺乏专业精神,而是对机构信息瓶颈的一种务实反应。
“AI for Care”战略强调分阶段、为期五年的推广,而这项工作才刚刚开始。在AI的世界里,五年漫长得像一个世纪。如果HSE(爱尔兰健康服务管理署)的官方工具笨拙、限制过多,或者落后消费级技术好几代,我们将看不到“人们耐心等待并采用”的场景。
相反,我们将看到医务人员绕过官方渠道,转而向个人使用的ChatGPT、Gemini或Claude等工具寻求快速答案。
这不仅仅是一个效率问题,更是一个重大的安全和数据隐私风险。如果公共服务部门不显著加快提供易用、高性能的AI工具,就会无意中助长一种“影子AI”文化,导致敏感的医疗信息可能泄露到不安全的个人消费级模型中。
为确保公众信任和数据安全——正如该战略所愿——HSE及更广泛的公共服务部门必须以承认消费市场现实的速度前进。
如果工作场所提供的版本还不如临床医生口袋里的那个,“处于循环中的人”只会去寻找一个更好的循环。——此致,
达拉·麦甘,
德拉姆康德拉,
都柏林3区。





