围绕生成式人工智能发出的刺耳的警报让领导者们感到困惑和担忧,尤其是考虑到生成式人工智能对组织内的每个人都可用,而不仅仅是数据科学家。至少有四种跨行业风险需要组织处理:幻觉问题、审议问题、低俗销售人员问题和责任分担问题。详细了解这些风险可以帮助公司计划如何应对这些风险。
content js-target="文章-内容" data-key="CL9q+3HlEjq5zVCGb1sCFBEOe4Fc4hfWClR38VBRPkJx0FtH4aXRpZQoRZ41RPfU" data-index="BM5l29iJY6Ee+ 8b2yfnlrdgbn4vlojhhh /T44P8lW63kSqFbbABFP5qz3keUVTgd+kP5nrlazdDp3Z/59gELw=" data-弃权="false" data-page-year="2023" data-page-mo . nth="08" data-page-seo-title=" generation -ai-焦虑症" data-page-adUnit-locations="" data-page-slug="article" data-piano-verified="false" > 所有行业的领导者都面临着来自董事会和首席执行官的压力,要求他们找出可以在哪里实施生成式人工智能解决方案。理由很熟悉:一方面,人们对利用新机会感到兴奋,另一方面,人们担心落后于竞争对手。但在推动创新的同时,人们也有充分的理由感到焦虑。在员工将公司敏感数据加载到ChatGPT平台后,三星禁止使用该平台。有充分证据表明,人工智能产生歧视性输出的倾向也适用于生成型人工智能。与此同时,生成人工智能公司正面临诉讼:生成图像的StableDiffusion面临来自Getty images的诉讼,而微软、GitHub和OpenAI面临集体诉讼。