【分享】首发! 更多的本地大模型可用

11次阅读
没有评论

gpt4all启动器的安装教程我就不发了,这位葫芦侠有发。

去他那里看看,安装有问题的话问他别问我。[委屈]

既然你安装好了,就可以看下去了。
因为GPT4all启动器中自带的大模型数量较少,自由度较低且能力有限,我们可以导入外部的大模型。(之后我会在评论区更新搜集到的大模型)

大模型链接我放在最后。

1.打开启动器(复制浏览器打开)下载大模型的路径。过程如图。

2.然后将(复制浏览器打开)下载的bin文件直接拖入。

3.重启启动器。并选择大模型,初始化成功即可使用。

大模型链接:(我的电脑是16gb Intel 的轻薄本,仅供参考)

1.「llama-2-13b-chat」

这个模型比较普通,属于很稳定的版本。中文水平一般。速度较快。文本理解能力优秀。推荐内存16GB以上。推荐(复制浏览器打开)下载。
https://www.aliyundrive.com/s/n3ggsvLXTzw
提取码: fhIy

2.「wizard-vicuna-13b-uncensored-superhot-8k」

这个模型很独特。中文水平一般。速度一般。文本理解能力优秀。推荐内存20GB以上。
https://www.aliyundrive.com/s/aMuUmChQmaL
提取码: upZs

3.「wizardlm-13b-v1.1-superhot-8k」

这个模型为清华大学联合训练。中文水平优秀。速度较快。文本理解能力优秀。推荐内存12GB以上。
https://www.aliyundrive.com/s/3tWD1ZZjmBB
提取码: peGd

4.「WizardLM-Uncensored-SuperCOT-StoryTelling-30b-superhot-8k」

这个模型很大,功能很全面。中文水平不知道。速度较慢。文本理解能力很优秀。推荐内存30GB的玩家挑战。
https://www.aliyundrive.com/s/okg2cA9tc9j
提取码: 6ASB

注意:所有模型均可在此启动器下运行。只有速度快慢的差距。这里推荐内存大小为流畅运行时的内存大小。 【分享】首发! 更多的本地大模型可用
【分享】首发! 更多的本地大模型可用
【分享】首发! 更多的本地大模型可用
【分享】首发! 更多的本地大模型可用
冷权小屋图片

正文完
 
评论(没有评论)
广而告之:图片-咖啡云主机