最重要的Git链接
众所周知ChatGPT功能超强,但是OpenAI 不可能将其开源。然而这并不影响研究单位持续做GPT开源方面的努力,比如前段时间 Meta 开源的 LLaMA,参数量从 70 亿到 650 亿不等,根据 Meta 的研究报告,130 亿参数的 LLaMA 模型“在大多数基准上”可以胜过参数量达 1750 亿的 GPT-3。
斯坦福也在 LLaMA 的基础上加入指令微调(instruct tuning),训练了一个名为 Alpaca 的 70 亿参数新模型(基于 LLaMA 7B)。结果显示,只有 70 参数的轻量级模型 Alpaca 性能也可媲美 GPT-3.5 这样的超大规模语言模型。
语言模型 GPT4All,这也是一种基于 LLaMA 的新型 7B 语言模型。
1. 克隆gpt4all
克隆gpt4all
2. 下载gpt4all-lora-quantized.bin
文件
下载地址
3. 下载成功后把gpt4all-lora-quantized.bin
文件复制到刚刚克隆的gpt4all
文件的chat
文件夹中
4. 执行您的操作系统运行适当的命令:
- M1 Mac/OSX:
cd chat;./gpt4all-lora-quantized-OSX-m1
- Linux:
cd chat;./gpt4all-lora-quantized-linux-x86
- Windows(PowerShell):
cd chat;./gpt4all-lora-quantized-win64.exe
- 英特尔Mac/OSX:
cd chat;./gpt4all-lora-quantized-OSX-intel