发布时间:2024-04-29 16:32:41 栏目:综合精选
Opera 已成为第一家为各种本地运行的人工智能模型提供内置支持的网络浏览器制造商。
Opera 的 One 浏览器现在对来自 50 个不同模型系列的 150 个本地大语言模型 (LLM)提供“实验性支持”。
其中包括主要的本地或开源法学硕士,例如Meta 的 Llama、Google 的 Gemma、Mistral AI 的 Mixtral、 Vicuna 等等。
通过这样做,Opera 击败了Microsoft Edge等精通人工智能的浏览器。后者以Bing和 Copilot的形式提供两种人工智能集成,但都不是在本地运行。
这一消息意味着 Opera One 用户将能够将 Opera 专有的 Aria AI 服务替换为更流行的第三方法学硕士。他们将能够在自己的计算机上本地运行这些法学硕士,这意味着他们的数据不会传输到远程服务器。也可以通过单个浏览器访问它。
本地法学硕士不仅适合注重隐私的人工智能爱好者,也适合那些想要在没有互联网连接的情况下访问人工智能模型的人。如果您想在旅行时使用法学硕士,这可能会很方便。
Opera 浏览器和游戏执行副总裁 Krystian Kolondra 表示:“以这种方式引入本地法学硕士使 Opera 能够开始探索在快速新兴的本地人工智能领域构建经验和专业知识的方法。”
免责声明:本文由用户上传,如有侵权请联系删除!