
阿升
V1
2023/04/05阅读:84主题:默认主题
9.4k!gpt4all
基于LLaMa的~800k GPT-3.5-Turbo Generations训练助手式大型语言模型的演示、数据和代码,可在笔记本电脑上训练模型。克隆此存储库并下载CPU量化的gpt4all模型。将量化模型放在聊天目录中并通过运行开始聊天:
cd chat;./gpt4all-lora-quantized-OSX-m1 在M1 Mac/OSX上
cd chat;./gpt4all-lora-quantized-linux-x86 在Windows/Linux上
要针对自定义硬件进行编译,请参阅Alpaca C++存储库分支:https:///github.com/zanussbaum/gpt4all.cpp。GPU上的完整模型(需要16GB内存)在定性评估中表现更好。





参考文献:
[1]https://github.com/nomic-ai/gpt4all
[2]gpt4全量化:https:///s3.amazonaws.com/static.nomic.ai/gpt4all/models/gpt4all-lora-quantized.bin
[3]GPT4All:Training an Assistant-style Chatbot with Large Scale Data Distillation from GPT-3.5-Turbo: https://url39.ctfile.com/f/2501739-833612751-3e7773?p=2096 (访问密码: 2096)
作者介绍

阿升
V1
吾爱DotNet(公众号)