我们不能期望结果一定是真实的陈述。众所周知这些工具会编造或产生幻觉因此在没有正确性审核的情况下不能使用。众所周知这些工具会编造或产生幻觉因此在没有正确性审核的情况下不能使用。此外用户可能拥有人工智能所没有的额外知识或背景例如人工智能尚未接受过培训专有知识对手头特定任务的更好理解等。
这些生成式人工智能模型的另一个风险是如果没有人为干预和审计它们可能会生成延续现有偏见的内容。当我们根据现有数据大规模训练这些模型时如果基础数据包含有偏差的信息那么结果也可能包含该偏差除非我们进行干预。我们在早期生成图像人工智能中看到的一个例子是当我们请求一个男人的图 瑞典 WhatsApp 号码数据 像时它很可能会创建一个白人的图像这可能是因为它所训练的数据。这个持续存在偏见的问题引发了许多有趣的政策问题比如谁应该监督结果以及人工智能应该代表什么规则和价值观。

是哈佛商学院数字数据和设计学院营销部门的副教授和客户智能实验室的联合创始人。能会落后与任何技术创新一样人工智能有潜力改变知识工作者的角色流程和实践。为了了解人工智能的潜力我们必须将其应用程序区分为面向外部增强产品供应和面向内部旨在提高运营效率的应用程序。面向外部的人工智能应用程序通过扩大公司产品组合的范围和规模来提供创造就业机会的机会。 |