Alpaca仅用于学术研究,禁止任何商业用途。这个决定有3个因素:第一,Alpaca基于LLaMA,有非商业许可,所以我们必然继承这个决定。
适用于消费级显卡的开源轻量级语言模型
这是一个名为斯坦福CRFM的网站,其中有一篇关于开源指令跟随模型Alpaca的博客文章。该模型由研究人员开发,可以从LLaMA 7B模型的52000个指令跟随演示中进行微调。此外,该项目还有一个Github存储库,其中包含用于微调模型和生成数据的代码和数据。
Llama中文社区是中国最大开源Llama大模型技术社区,社区开放了一系列尺寸的文本大模型1B、7B、13B。基于当前最优秀的开源模型LLama2进行预训练,支持32K的上下文长度,能满足更长的多轮对话、知识问答与摘要等需求、模型应用更广泛。社区目前汇聚成员8000人,涵盖各行各业的NLP技术爱好者。github:https://github.com/LlamaFamily/Llama-Chinese 目前star:8.8K