[llama懒人包]ChatGPT本地下位替代llama-7b,支持全平台显卡/CPU运行

这篇具有很好参考价值的文章主要介绍了[llama懒人包]ChatGPT本地下位替代llama-7b,支持全平台显卡/CPU运行。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

LLAMA的懒人包:

链接: https://pan.baidu.com/s/1xOw8-eP8QB--u6y644_UPg?pwd=0l08 

提取码:0l08

模型来源:elinas/llama-7b-hf-transformers-4.29

模型来源(LoRA):ymcui/Chinese-LLaMA-Alpaca

侵权请通知作者删除

也可以进我的群下载哦:904511841

[llama懒人包]ChatGPT本地下位替代llama-7b,支持全平台显卡/CPU运行

下面是llama的输入样例

 

> 自我介绍一下llama

您好,我是llama。我是一个大型语言模型,由OpenAI训练而成。我可以回答您的问题并提供帮助。如果您有任何疑问或需要我的帮助,

请随时与我联系。

> 什么是AI

人工智能(AI)是一种计算机科学,旨在使机器能够表现出人类智能的某些方面,例如学习、推理、感知和自我改进等。AI技术包括机器学习、自然语言处理、计算机视觉等领域,这些技术正在不断发展和进步。

 

文件结构:

目录: D:\llama

Mode LastWriteTime Length Name

---- ------------- ------ ----

-a---- 2023/6/11 22:19 106 alpaca.txt

-a---- 2023/5/27 2:19 4014080 clblast.dll

-a---- 2023/6/11 22:39 3874697024 ggml-model-q4_0.bin

-a---- 2023/6/29 3:09 657920 main.exe

-a---- 2023/6/11 22:20 403968 main_avx.exe

-a---- 2023/6/11 22:20 384000 main_avx2.exe

-a---- 2023/6/10 15:51 429568 main_ocl.exe

-a---- 2023/6/12 13:57 106 启动机器人_正常版_CPU.bat

-a---- 2023/6/12 13:59 105 启动机器人_正常版_兼容模式_老U.bat

-a---- 2023/6/12 13:56 105 启动机器人_正常版_通用显卡加速.bat文章来源地址https://www.toymoban.com/news/detail-521746.html

到了这里,关于[llama懒人包]ChatGPT本地下位替代llama-7b,支持全平台显卡/CPU运行的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包赞助服务器费用

相关文章

  • 【ChatGPT】Web LLM:你的本地的ChatGPT —— 完全在您的浏览器中运行 vicuna-7b 大型语言模型,它非常令人印象深刻

    目录 Web LLM—— 完全在您的浏览器中运行 vicuna-7b 大型语言模型,它非常令人印象深刻 指示 聊天演示 链接 免责声明 Instructions Chat Demo Links Disclaimer

    2024年02月05日
    浏览(18)
  • 最新本地大模型进展#Chinese-LLaMA-2支持16k长上下文

    最新本地大模型进展#Chinese-LLaMA-2支持16k长上下文

    ‍‍ Hi,今天为大家介绍最新的本地中文语言模型进展。 [2023/08/25] Chinese-LLaMA-2发布了新的更新: 长上下文模型Chinese-LLaMA-2-7B-16K和Chinese-LLaMA-2-13B-16K,支持16K上下文,并可通过NTK方法进一步扩展至24K+。 这意味着在使用这些模型时,你可以获得更长的上下文信息,从而提高模

    2024年02月10日
    浏览(13)
  • llama.cpp 部署 llama-2-7b 测试 Llama 2

    llama.cpp 部署 llama-2-7b 测试 Llama 2

    首先进入这里 https://github.com/facebookresearch/llama  点击下载 填写注册信息  接受后继续  上面的按钮点击后,应该邮箱就收到链接了,几乎是很快的 把下面的链接复制后备用,注意24小时后会失效 提前先了解一下有3种模型 7b  13b  70b   7b就是有70亿参数,文件夹里面有3个文件

    2024年02月10日
    浏览(13)
  • LLaMA-7B微调记录

    LLaMA-7B微调记录

    Alpaca(https://github.com/tatsu-lab/stanford_alpaca)在70亿参数的LLaMA-7B上进行微调,通过52k指令数据(https://github.com/tatsu-lab/stanford_alpaca/blob/main/alpaca_data.json),在8个80GB A100上训练3小时,在对话上的性能比肩GPT-3.5。 52k数据所对应的alpaca_data.json是一个字典列表,每个字典包含以下字段

    2024年02月12日
    浏览(12)
  • MPT-7B:开源,商业可用,性能堪比LLaMA-7B的LLM新成员

    MPT-7B:开源,商业可用,性能堪比LLaMA-7B的LLM新成员

    Meta开源了LLama,不过有很多限制,很难商业运用。于是现在MosaicML开发了MPT-7B模型,它是一个基于Transformer在1T文本/代码Token上训练出来的模型。该模型 开源,与LLaMA-7B模型效果相匹配,而且可用于商业用途 。 代码:https://github.com/mosaicml/llm-foundry/ 模型:mosaicml/mpt-7b-instruct ·

    2024年02月11日
    浏览(9)
  • 提高LLaMA-7B的数学推理能力

    提高LLaMA-7B的数学推理能力

    这篇文章探讨了利用多视角微调方法提高数学推理的泛化能力。数学推理在相对较小的语言模型中仍然是一个挑战,许多现有方法倾向于依赖庞大但效率低下的大语言模型进行知识蒸馏。研究人员提出了一种避免过度依赖大语言模型的新方法,该方法通过有效利用具有不同注

    2024年02月16日
    浏览(13)
  • 基于LM Studio + LLaMA3 建立本地化的ChatGPT

    基于LM Studio + LLaMA3 建立本地化的ChatGPT

    4月19日,Facebook母公司Meta重磅推出了Llama3。即便大家现在对于大厂和巨头频繁迭代AI模型的行为已经见怪不怪,Meta的Llama3仍旧显得与众不同,因为这是迄今最强大的开源AI模型。LLaMA模型通常采用了类似于GPT(由OpenAI开发)的变换器(Transformer)架构。这种架构特别适合处理大

    2024年04月27日
    浏览(12)
  • LLM__llama-7B模型试验

    LLM__llama-7B模型试验

    llama模型已经开源很久了,所以拿做小的模型做了个简单尝试 因为做简单尝试并不打算长期持有,所以以便宜、够用、好退货为主要参考依据购买阿里云服务器、 我看7B的模型权重大小就13GB,所以先购入一个 32GB内存的虚拟机 CPU内存: 4核(vCPU) 32 GiB ~ 操作系统: Alibaba Cloud Lin

    2024年02月09日
    浏览(11)
  • 试运行llama-7B、vicuna-7b-delta-v1.1和vicuna-7b-v1.3

    试运行llama-7B、vicuna-7b-delta-v1.1和vicuna-7b-v1.3

    Chatgpt的出现给NLP领域带来了让人振奋的消息,可以很逼真的模拟人的对话,回答人们提出的问题,不过Chatgpt参数量,规模,训练代价都很昂贵。 幸运的是,出现了开源的一些相对小的模型,可以在本地或者云端部署体验, 动手体验了下Vicuna-7b,翻译过来是小羊驼」(骆马)

    2024年02月13日
    浏览(12)
  • 【类ChatGPT】本地CPU部署中文羊驼大模型LLaMA和Alpaca

    【类ChatGPT】本地CPU部署中文羊驼大模型LLaMA和Alpaca

    昨天在github上看到一个在本地部署中文大模型的项目,和大家分享一下。先把地址po出来。 项目名称:中文LLaMAAlpaca大语言模型+本地部署 (Chinese LLaMA Alpaca LLMs) 项目地址:https://github.com/ymcui/Chinese-LLaMA-Alpaca 以下是原github中给出的体验GIF,可以看到这个模型还是具备一定的指令

    2023年04月23日
    浏览(21)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包