|
Post by yamancnp123 on Mar 18, 2024 5:15:47 GMT -5
该平台已成为开源人工智能模型的首选中心。通过 Hugging Face,您可以尝试以下版本的 Llama 2: Llama 2 7B Chat Llama 2 13B Chat Llama 2 70B Chat 最后的“Chat”表示他们正在使用每个模型的微调版本,称为 Llama -2-chat,针对类似聊天机器人的对话进行了优化,类似于 ChatGPT 是 GPT 的微调、聊天机器人优化版本。您还会注意到三种不同的大小:7B 具有 70 亿个参数,13B 具有 130 亿个参数,70B 具有 700 亿个参数。虽然所有这些都针对速度进行了优化,但较小的尺寸在较低规格的硬件上运行速度会明显更快,即使它们在生成合理或准确的文本方面不太有效。请记住,对于许多任务来说,开箱即用的 Llama 2 根本不如 ChatGPT,尤其是在您使用 GPT-4 的情况下。基础模型和微调聊天模型都旨在进行进一步训练,以满足您的特定需求(稍后会详细介绍)。 骆驼 2 是如何运作的?为了创建神经网络,Llama 2 使用了来自 Common Crawl(数十亿网页的档案)、维基百科和古腾堡计划的公共领域书籍等公共资源的 2 万亿个“令牌”进行训练。每个标记都是一个单词或语义片段,允许模型为文本分配含义并合理地预测后续文本。如果“Apple”和“iPhone”这两个词始终一起出现,则可以理解这两个概 巴西电话号码列表 念是相关的,并且与“苹果”、“香蕉”和“水果”不同。当然,在开放互联网上训练人工智能模型会导致种族主义和其他可怕内容,因此开发人员还采用了其他训练策略,包括带有人类反馈的强化学习(RLHF),以优化模型以获得安全和有用的响应。借助 RLHF,人类测试人员会对 AI 模型的不同响应进行排序,以引导其生成更合适的输出。聊天版本还根据特定数据进行了微调,使其能够更好地以自然的方式响应对话。 但即使这些模型也只是作为构建的基础。如果您想创建一个法学硕士来以您公司的特定品牌风格或声音生成文章摘要,您可以使用数十个、数百个甚至数千个示例来训练 Llama 2,并创建一个能够实现这一目标的示例。同样,您可以进一步微调其中一种聊天优化模型,通过向其提供常见问题解答和聊天日志等其他相关信息来响应您的客户支持请求。 Llama 与 GPT、Bard 和其他 AI 模型:它们如何比较?在描述他们如何开发 Llama 2 的研究论文中,研究人员将其在各种基准(如多任务语言理解和 TriviaQA 阅读理解数据集)上的性能与其他开源和闭源模型(包括 GPT-3.5 等大牌模型)进行了比较、GPT-4、PaLM 和 PaLM 2。简而言之,Llama 的 70B 版本优于其他开源 LLM,并且在大多数基准测试中通常与 GPT-3.5 和 PaLM 一样好,但性能不如 GPT- 4 或 PaLM 2。我的测试就是这样的。我发现 Llama 2 在给出简单提示时更有可能“产生幻觉”或编造故事。尽管我支持 Meta 的计划,但我无法欺骗它说出任何令人震惊的事情。
|
|