开源中国-最新资讯 ( ) • 2024-04-15 14:55

Opera 近日宣布,其将在开发者频道的 Opera One 浏览器中添加对 150 个本地 LLM 模型的实验性支持。支持模型包括:

  • Meta 的 Llama

  • Vicuna

  • Google 的 Gemma

  • Mistral AI 的 Mixtral

使用本地大型语言模型意味着用户的数据保存在本地设备上,无需将信息发送到服务器。Opera 正在 Opera One 的开发者频道中测试这套新的本地 LLM。本地 LLM 通常需要每个模型 2-10 GB 的本地存储空间,然后将使用本地 LLM 代替 Opera 的 AI Aria。