网界网3月18日消息,得益于人工智能的最新进展,ChatGPT 等新工具能够根据人们的查询和提示创作引人入胜的文章,令消费者惊叹不已。
虽然这些由人工智能驱动的工具在产生创造性的、有时是幽默的反应方面变得更好了,但它们通常包含不准确的信息。
例如,2 月,当微软推出其 Bing 聊天工具时,该工具使用由微软支持的 OpenAI 创建的 GPT-4 技术构建,人们注意到该工具在与财务收益报告相关的演示中提供了错误的答案。与其他 AI 语言工具一样,包括来自Google的类似软件, Bing 聊天功能偶尔会呈现用户可能认为是真实情况的虚假事实,研究人员称这种现象为“幻觉”。
这些问题并没有减缓这两家科技巨头之间的人工智能竞赛。
周二,谷歌宣布将人工智能聊天技术引入 Gmail 和 Google Docs,让它帮助撰写电子邮件或文档。周四,微软表示其流行的商业应用程序如 Word 和 Excel 将很快与名为 Copilot 的ChatGPT 类技术捆绑在一起。
但这一次,微软将这项技术称为“有用的错误”。
在有关 Copilot 新功能的在线演示中,微软高管提出了该软件产生不准确响应的倾向,但认为这可能是有用的。只要人们意识到 Copilot 的回答可能对事实草率,他们就可以纠正不准确的地方,并更快地发送电子邮件或完成演示幻灯片。
例如,如果一个人想创建一封祝家庭成员生日快乐的电子邮件,即使它提供了错误的出生日期,Copilot 仍然可以提供帮助。在微软看来,该工具生成文本这一事实本身就为人们节省了一些时间,因此是有用的。人们只需要格外小心并确保文本不包含任何错误。
研究人员可能不同意。
事实上,Noah Giansiracusa 和 Gary Marcus 等技术专家 表示担心人们可能过于信任现代人工智能,当他们询问有关健康、金融和其他高风险话题的问题时,会把 ChatGPT 等建议工具放在心上。
“ChatGPT 的毒性护栏很容易被那些一心想将其用于邪恶目的的人所规避,正如我们本周早些时候看到的那样, 所有新的搜索引擎都在继续产生幻觉,”两人在最近的一篇时代评论文章中写道。“但一旦我们度过了开幕日的紧张情绪,真正重要的是是否有任何大公司可以 打造我们可以真正信任的人工智能。”
目前尚不清楚 Copilot 在实践中的可靠性。
微软首席科学家兼技术研究员 Jaime Teevan 表示,当 Copilot“出错或有偏见或被滥用”时,微软有“适当的缓解措施”。此外,她解释说,微软最初将仅与 20 家企业客户一起测试该软件,以便了解它在现实世界中的工作原理。
“我们会犯错,但当我们犯错时,我们会迅速解决它们,”Teevan 说。
微软无法忽视对 ChatGPT 等生成式 AI 技术的热情。公司面临的挑战将是整合该技术,以免造成公众对该软件的不信任或导致重大的公共关系灾难。
“我研究 AI 几十年了,我对这个强大的新工具感到了巨大的责任感,”Teevan 说。“我们有责任以正确的方式将它交到人们手中。”