LLaMA 2 是由 Meta 创建的大型语言模型,可免费用于研究和商业用途。导致一些人认为 LLaMA 2 是开源的。但是,Meta 对其模型的使用实施了一些严格的限制。例如,LLaMA 2 不能用于改进任何其他大型语言模型。这一立场与开放软件的传统私人集体创新模式背道而驰,这种模式促进了*和开放的创新揭示,以造福软件社区中的每个人。
Meta 不允许将 LLaMA 2 与每月拥有 7 亿用户的产品集成,并且不允许透露他们的模型是根据哪些数据进行训练的,或者他们用来构建模型的代码,从而进一步削弱了其模型的使用。通过不披露,Meta 正在向固有偏见和意外歧视的问题敞开大门。根据歧视性数据训练的模型将提供歧视性反应。如果整个软件社区无法查看用于构建模型的代码,以查看是否内置了任何保护措施,或者用于训练模型的数据,那么我们在这些道德问题上就一无所知。在已发表的人工智能研究更关注性能而不是正义和尊重的时代,这种混淆尤其令人不安。