
【编者按】当AI视频生成工具Sora2以破竹之势冲上应用下载榜前列时,一场关于科技伦理的龙卷风正在席卷数字世界。只需几行文字就能生成逼真视频,上传自拍即可成为任意场景的主角——这种突破性的创作自由,正被恶意使用者扭曲成伪造历史人物言论、盗用明星肖像的温床。从马丁·路德·金发表争议言论的伪造视频,到《绝命毒师》主演布莱恩·科兰斯顿的肖像权纠纷,OpenAI被迫紧急筑起版权防护栏。然而乔治城大学的专家警告,这仅是冰山一角。当深度伪造技术门槛降至零,当虚假信息以假乱真,我们迎来的究竟是创意革命的曙光,还是信任崩塌的前夜?这场科技与伦理的赛跑,需要全社会共同系紧安全带。
OpenAI的视频生成工具Sora2不仅稳坐应用下载榜前列,更收获了一长串投诉清单。
仅需输入几行文字,Sora2就能让任何人制作出逼真视频,这比2024年OpenAI有限发布的初代版本有了质的飞跃。
用户还能上传个人肖像并录制语音,让自己成为任意场景的主角。
但自9月底仅在美国和加拿大上线以来,这种便捷性与赋能感同样成为恶意行为的温床。
在短时间内,这款视频工具已引发内容创作者、娱乐公司和电影制片厂的强烈愤慨,被指控侵犯版权。
上线至今,用户通过Sora2伪造马丁·路德·金发表冒犯性言论的视频在社交媒体疯传,迫使其后人要求整改。
《绝命毒师》演员布莱恩·科兰斯顿也控诉其肖像遭擅自复制。
这些投诉促使OpenAI紧急为Sora2设置防护机制。
或许是担忧版权诉讼激增,OpenAI修改了原本允许在应用中生成和使用版权内容的规定,转为要求版权方明确授权方可使用。
公司CEO萨姆·奥尔特曼在博客中写道:“我们将赋予权利人对角色生成更精细的管控权,类似肖像授权模式但增加额外控制。”
近年来,硅谷科技公司快速响应投诉已成常态,但Sora带来的潜在影响——尤其在虚假信息泛滥的当下——令众多专家忧心忡忡。
乔治城大学数字伦理中心助理教授艾丽莎·雷德迈尔斯指出,Sora2等产品仓促上市引发的问题仅是冰山一角。
她表示尽管设有防护措施,Sora2及同类工具仍会降低伪造视频门槛,可能导致有人利用他人形象推广其不认可的观点或商品。
“他们的审慎程度未达预期,”她评价OpenAI的改进承诺仍显模糊,“缺乏对肖像评估机制的透明度,这本身就是难题…我们未见任何相关保护标准公开。”
雷德迈尔斯教授警告,参照AI图像生成工具遭滥用的先例,年轻女性和儿童可能面临被犯罪分子利用Sora2侵害的风险。
专研深度学习与计算机视觉的萨拉·巴尔加尔教授对此深表认同。
她指出,尽管有人将Sora2与90年代照片编辑软件的争议类比,但二者存在本质差异。
“这完全是颠覆性的,”她解释道,“当年使用Photoshop需要专业技能,而Sora2仅需文字指令就能生成足以骗过专业人士的视频。”
新一代生成式AI工具极大降低了无中生有的创作门槛,为滥用行为制造了完美温床。
但巴尔加尔教授也强调,AI视频检测技术终将进步,届时伪造视频会更容易被识别。
她担忧AI发展速度可能超越法律与心理健康领域的应对能力:“社会科学政策、法律等重要关联领域的发展步伐尚未同步。”
正如早期社交应用引爆风潮,对新技术的新奇感与错失恐惧,正推动Sora2占据各大应用商店榜首,使许多人选择性忽视潜在危机。
巴尔加尔教授指出,Sora2的崛起可能终结数十年来“视频即证据”的认知范式。
“如今我们对所见视频愈发怀疑,”她补充道技术终将使真假辨别更便捷,“检测伪造内容的模型正在完善。”
她强调社交媒体与技术平台需协同部署检测系统,同时用户与专家也应持续发声:“科技巨头、社会科学专家与政策制定者必须保持持续对话。”
OpenAICEO奥尔特曼近期接受科技记者罗万·张采访时,为公司边发布边修正的策略辩护。
“人类将快速适应互联网充斥伪造视频的现实,”他提及Sora2为所有视频添加水印的措施,“这注定会发生,让社会提前免疫或许具有特殊价值。”





