1638 字
8 分钟
推荐6个支持本地设备运行大语言模型的工具

随着人工智能和机器学习的快速发展,像Meta的LLaMA 3和OpenAI的ChatGPT这样的大语言模型(LLMs)在各种应用场景中变得越来越受欢迎。然而,运行大语言模型通常需要将数据发送到由OpenAI或者其他AI模型提供商管理的服务器。尽管这些服务是安全的,但一些用户更倾向于将数据完全离线,以确保更高的隐私性。

运行本地大语言模型可以帮助用户深入了解其性能和工作原理。本地大语言模型能够与私有文档和技术论文进行交互,从而确保这些文档的信息不会上传至任何云端AI服务器。本地大语言模型在无互联网的地方以及网络信号较差的地区非常有用。

本文推荐6个支持在本地运行和测试LLMs的软件工具。这些工具在用户使用时不会收集用户数据或跟踪用户行为。它允许所有聊天数据保留在本地计算机上,而不会与AI/ML服务器共享。

  1. LM Studio

LM Studio提供与ChatGPT类似的功能和特性,可以运行任何格式为gguf的模型文件,如Llama 3.1、Phi 3、Mistral和Gemma。启动LM Studio后,页面上会展示可下载和测试的大语言模型。还可以使用搜索框过滤并从不同的AI提供商下载特定模型。

下载地址:https://lmstudio.ai

使用下面的示例Python代码,用户可以重用现有的OpenAI配置,并修改基本URL以指向您的本地主机。

1from openai import OpenAI
2
3# Point to the local server
4client = OpenAI(base_url=“http://localhost:1234/v1”, api_key=“lm-studio”)
5
6completion = client.chat.completions.create(
7 model=“TheBloke/Mistral-7B-Instruct-v0.1-GGUF”,
8 messages=[
9 {“role”: “system”, “content”: “Always answer in rhymes.”},
10 {“role”: “user”, “content”: “Introduce yourself.”}
11 ],
12 temperature=0.7,
13)
14
15print(completion.choices[0].message)

2. Jan

Jan被称为开源离线版的ChatGPT,支持在本地设备离线安装运行流行的70多个大语言模型,支持从Hugging Face等来源导入模型,支持TensortRT和Inference Nitro等扩展,以自定义和增强用户的AI模型,支持自定义推理参数。

下载地址:https://jan.ai

  1. LlamafileLlamafile能够将大语言模型转换为多平台支持的可执行链接格式(ELF),允许用户仅使用一个可执行文件运行LLMs。该工具支持在Windows、MacOS、Linux、Intel、ARM、FreeBSD等架构上运行,无需安装。在底层,Llamafile使用tinyBLAST在Windows等操作系统上运行,而无需SDK。
  • 可执行文件:与LM Studio和Jan等其他LLM工具不同,Llamafile只需一个可执行文件即可运行LLMs。
  • 使用现有模型:Llamafile支持使用现有模型工具,如Ollama和LM Studio。
  • 访问或创建模型:您可以访问来自OpenAI、Mistral、Groq等的流行LLMs。它还支持从头创建模型。
  • 模型文件转换:您可以通过单个命令将许多流行LLMs的文件格式转换,例如,将gguf转换为llamafilellamafile-convert mistral-7b.gguf

由于其更快的性能,它非常适合用于总结长文本和大型文档。它完全离线运行并保持私密,因此用户的数据不会共享给任何AI服务器或API。类似Hugging Face这样的机器学习社区支持Llamafile格式,使得搜索与Llamafile相关的模型变得容易。https://github.com/Mozilla-Ocho/llamafile

4. GPT4ALL

GPT4ALL是一个支持在个人PC或者笔记本电脑上运行大型语言模型(LLMs)的开源项目,无需调用API或者使用GPU,目前在github上已经获得了超过6.9万个星标。

https://github.com/nomic-ai/gpt4all

  1. Ollama

安装完成Ollam后,可以通过命令行运行模型,例如使用命令ollama run llama3来启动Llama 3模型。Ollama支持与Python等编程语言集成,用户可以通过LangChain等库与Ollama连接并使用其功能。用户可以轻松创建本地聊天机器人,而无需连接到像OpenAI这样的API。Ollama支持从PyTorch导入模型。Ollama支持转换.gguf模型文件并运行该模型。下载地址:https://ollama.com

  1. LLaMa.cpp

LLaMa.cpp是支持Ollama等本地LLM工具的基础后端技术(推理引擎)。LLaMa.cpp能够以最小的配置在各种硬件上实现显著的大型语言模型推理,并提供出色的本地性能。它也可以在云中运行。它支持流行的主要LLM,如Mistral 7B、Mixtral MoE、DBRX、Falcon以及其他许多模型。LLaMa.cpp支持开源LLM用户界面工具,如MindWorkAI/AI-Studio(FSL-1.1-MIT)、iohub/collama等。

https://github.com/ggerganov/llama.cpp

本公众号相关内容推荐#

推荐6个支持本地设备运行大语言模型的工具
https://blog.scidatalab.net/posts/推荐6个支持本地设备运行大语言模型的工具/
作者
Echo
发布于
2024-10-05
许可协议
CC BY-NC-SA 4.0