hao123上网导航 hao123上网导航 hao123上网导航 hao123上网导航
  • 常用推荐
  • 在线工具箱
  • AI聊天机器人
  • AI​文本生成
  • AI图像工具
  • AI工具集
  • AI智能应用
  • AI生产效率
  • ​娱乐休闲
  • 影音娱乐
  • 学术集
  • 生活服务
  • 社交媒体
  • 行业导航
  • 小游戏
  • 友情链接
  • 联系我们
hao123上网导航 hao123上网导航
  • 首页
  • 在线工具箱
  • 日系杂志
  • 杂志猫
常用
搜索
工具
社区
生活

    awq

    Llama-lynx-70b-4bitAWQ
    Llama-lynx-70b-4bitAWQ

    Llama-lynx-70b-4bitAWQ是一个由Hugging Face托管的70亿参数的文本生成模型,使用了4-bit精度和AWQ技术。该模型在自然语言处理领域具有重要性,特别是在需要处理大量数据和复杂任务时。它的优势在于能够生成高质量的文本,同时保持较低的计算成本。产品背景信息显示,该模型与'transformers'和'safetensors'库兼容,适用于文本生成任务。

    EXAONE-3.5-7.8B-Instruct-AWQ
    EXAONE-3.5-7.8B-Instruct-AWQ

    EXAONE 3.5是LG AI Research开发的一系列指令调优的双语(英语和韩语)生成模型,参数范围从2.4B到32B。这些模型支持长达32K令牌的长上下文处理,并在真实世界用例和长上下文理解方面展现出最先进的性能,同时在与最近发布的类似大小模型相比的一般领域中保持竞争力。EXAONE 3.5模型包括:1) 2.4B模型,优化用于小型或资源受限设备的部署;2) 7.8B模型,与前代模型大小相匹配,但提供改进的性能;3) 32B模型,提供强大的性能。

    Copyright © 2025 hao123上网导航