英国政府正在推动OpenAI、Anthropic和谷歌等公司解释各自大型语言模型(LLM)的内部工作原理。虽然一些模型的代码是公开的,但GPT-3.5和GPT-4等模型不是公开的,OpenAI非常不愿意分享许多细节。
英国正准备主办一场新的全球人工智能峰会,政府、公司和研究人员将齐聚一堂,研究人工智能带来的风险,并讨论减轻这些风险的方法。
公司不愿分享LLM内部信息的原因之一是,此举可能会泄露其产品的专有信息。如果恶意行为者更多地了解内部情况,也可能使人工智能模型容易受到网络攻击。
据英国《金融时报》报道,政府希望检查的一件事是模型权重,它定义了模型不同层神经元之间的连接强度。人工智能公司目前不需要分享这些细节,但有人呼吁提高这一问题的透明度。
英国将于11月在布莱切利公园举行首次峰会。布莱切利公园在计算机历史上占有重要地位,因为它是纳粹信息解密的地方。与人工智能相关的图灵测试以Alan Turing的名字命名,他也曾在那里破解代码。
英国《金融时报》指出,谷歌的DeepMind、OpenAI和Anthropic都在6月份同意向英国政府开放其模型,以实现研究和安全目的。不幸的是,当时双方还没有就准入的范围和技术细节达成一致。现在,政府正在要求相当深入的访问。
最终,为了使峰会取得成功,与会者必须充分了解模型的工作原理,以便更好地了解。