LLMs之Qwen:Qwen2.5的简介、安装和使用方法、案例应用之详细攻略

LLMs之Qwen:Qwen2.5的简介、安装和使用方法、案例应用之详细攻略

导读:2024年9月19日,阿里云Qwen团队发布0.5B、1.5B、3B、7B、14B、32B和72B参数规模的7款开源模型,语料词汇量为18T个tokens(Qwen2系列仅有7T)。Qwen2.5支持高达128K 的上下文长度,并能生成高达8K的文本。支持多种推理框架,例如 transformers、Ollama、llama.cpp、vLLM、SGLang等。支持多种训练框架,例如 Axolotl、Llama-Factory、unsloth、Swift等,方便用户进行微调。
>> 性能表现:显著提升了指令遵循长文本生成(超过8K tokens)、​​​​​​​结构化数据理解(例如表格)以及​​​​​​​结构化输出生成(尤其是JSON)的能力。对各种系统提示的鲁棒性更强,增强了角色扮演的实现和聊天机器人的条件设置。Qwen2.5支持29种语言

  • 在MMLU、BBH、ARC-C、TruthfulQA、Winogrande、HellaSwag等通用任务中表现出色,超越了同类模型。
  • 数学任务(GPQA、Theoremqa、MATH、GSM8K)中表现突出,尤其是在MATH中,Qwen2.5-72B-Instruct得分从Qwen2-7B/72B-Instruct的52.9/69.0上升到了75.5/83.1。
  • 代码任务(HumanEval、HumanEval+、MBPP、MBPP+、MultiPL-E)中表现优异,尤其是在LiveCodeBench中,Qwen2.5-72B-Instruct得分达到了55.5,优于Qwen2-72B-Instruct的32.2。
  • 多语言任务(Multi-Exam、Multi-Understanding、Multi-Mathematics、Multi-Translation)中表现出色,尤其是在Multi-Understanding中,Qwen2.5-72B得分达到了89.6,展现出强大的多语言理解能力。
  • 更符合人类偏好:Qwen2.5生成的内容更加贴近人类的偏好,在Arena-Hard和MT-Bench等评估指标上都有显著提升。

>> 数据构成:Qwen2.5在最新的超大规模数据集上进行预训练,预训练数据集规模从 7T tokens 扩展到了 18T tokens。

>> 数据预处理流程及其策略:经过大规模数据集的预训练,数据预处理策略包括批量推理、流式推理等。
>> 模型结构:Qwen2.5是密集型、仅解码器结构,提供基础版和指令版。Qwen2.5系列模型均为decoder-only的稠密模型。

>> 优化策略:提供SFT(监督微调)和RLHF(人类反馈强化学习)的训练指导。支持量化实践(如GPTQ、AWQ)以生成高质量的量化文件。提到了Qwen2.5-Coder、Qwen2-math等技术,暗示了模型在代码生成和数学推理能力上的提升。

目录

相关文章

LLMs之Qwen2:Qwen2的简介、安装和使用方法、案例应用之详细攻略

MLM之Qwen:Qwen2-VL的简介、安装和使用方法、案例应用之详细攻略

LLMs之Qwen:Qwen2.5的简介、安装和使用方法、案例应用之详细攻略

Qwen2.5的简介

0、新闻

1、项目内容

2、性能

Qwen2.5的安装和使用方法

1、安装

2、使用方法

T1、Hugging Face Transformers

T2、ModelScope

3、推理

3.1、本地运行

Ollama

llama.cpp

MLX-LM

LMStudio

OpenVINO

3.2、Web UI

文本生成 Web 用户界面

llamafile

4、部署

vLLM

SGLang

5、工具使用

6、微调

Qwen2.5的案例应用


相关文章

LLMs之Qwen2:Qwen2的简介、安装和使用方法、案例应用之详细攻略

LLMs之Qwen2:Qwen2的简介、安装和使用方法、案例应用之详细攻略_qwen2 硬件要求-CSDN博客

MLM之Qwen:Qwen2-VL的简介、安装和使用方法、案例应用之详细攻略

MLM之Qwen:Qwen2-VL的简介、安装和使用方法、案例应用之详细攻略_qwen2-vl 怎么用-CSDN博客

LLMs之Qwen:Qwen2.5的简介、安装和使用方法、案例应用之详细攻略

LLMs之Qwen:Qwen2.5的简介、安装和使用方法、案例应用之详细攻略-CSDN博客

Qwen2.5的简介

2024年9月19日,Qwen2.5 是由阿里云 Qwen 团队开发的大型语言模型系列。自 Qwen2 发布以来的过去三个月里,众多开发者基于 Qwen2 语言模型构建了新的模型,并为我们提供了宝贵的反馈。在这期间,我们专注于创建更加智能和知识丰富的语言模型。今天,我们很兴奋地向大家介绍 Qwen 家族的最新成员:Qwen2.5。

>> 密集、易用、仅解码器的语言模型,提供 0.5B、1.5B、3B、7B、14B、32B 和 72B 多种尺寸,以及基础版和指令版变体。

>> 预训练于我们最新的大规模数据集,包含多达 18T 令牌。

>> 在遵循指令、生成长文本(超过 8K 令牌)、理解结构化数据(如表格)以及生成结构化输出尤其是 JSON 方面有显著改进。

>> 对系统提示的多样性更具韧性,增强了角色扮演实现及聊天机器人的条件设置。

>> 上下文长度支持高达 128K 令牌,并可生成高达 8K 令牌。

>> 支持超过 29 种语言,包括中文、英语、法语、西班牙语、葡萄牙语、德语、意大利语、俄语、日语、韩语、越南语、泰语、阿拉伯语等。

GitHub地址:GitHub - QwenLM/Qwen2.5: Qwen2.5 is the large language model series developed by Qwen team, Alibaba Cloud.

0、新闻

2024年9月19日:我们发布了 Qwen2.5 系列。这次额外增加了 3 种模型尺寸:3B、14B 和 32B,提供更多可能性。请查看我们的博客获取更多信息!

2024年6月6日:我们发布了 Qwen2 系列。请查看我们的博客!

2024年3月28日:我们发布了 Qwen 的首个 MoE 模型:Qwen1.5-MoE-A2.7B!目前仅 HF transformers 和 vLLM 支持该模型。我们很快会增加 llama.cpp、mlx-lm 等的支持。请查看我们的博客获取更多信息!

2024年2月5日:我们发布了 Qwen1.5 系列。

1、项目内容

>> 推理:使用 transformers 进行推理的指南,包括批量推理、流式处理等;

>> 本地运行:在 CPU 和 GPU 上使用 llama.cpp 和 Ollama 等框架本地运行 LLM 的说明;

>> 部署:使用 vLLM、TGI 等框架进行大规模推理的部署演示;

>> 量化:使用 GPTQ、AWQ 量化 LLM 的实践,以及如何制作高质量量化 GGUF 文件的指南;

>> 训练:后训练说明,包括使用 Axolotl、LLaMA-Factory 等框架的 SFT 和 RLHF(待完成)。

>> 框架:与 RAG、Agent 等应用程序框架一起使用的 Qwen 方法。

2、性能

详细的评估结果报告在此 �� 博客中。

对于 GPU 内存需求及相应的吞吐量,请参见这里的结果(将针对 Qwen2.5 更新)。

Qwen2.5的安装和使用方法

1、安装

2、使用方法

T1、Hugging Face Transformers

建议使用最新版本的 transformers(至少 4.37.0)。这里展示了一个代码片段,展示如何使用 transformers 与聊天模型交互:

对于量化模型,我们建议您使用对应的 GPTQ 和 AWQ 版本,即 Qwen2.5-7B-Instruct-GPTQ-Int8 和 Qwen2.5-7B-Instruct-AWQ。

T2、ModelScope

我们强烈建议用户特别是中国大陆的用户使用 ModelScope。snapshot_download 可以帮助您解决下载检查点的问题。

3、推理

3.1、本地运行

Ollama

安装 ollama 后,您可以使用以下命令启动 ollama 服务:

ollama serve

# 使用 ollama 时需要保持此服务运行

要拉取模型检查点并运行模型,请使用 ollama run 命令。您可以通过添加后缀到 qwen2.5 来指定模型大小,例如 :0.5b, :1.5b, :7b, 或 :72b:

您还可以通过其兼容 OpenAI 的 API 访问 ollama 服务。请注意,您需要 (1) 在使用 API 时保持 ollama serve 运行,(2) 在使用此 API 之前执行 ollama run qwen2.5:7b 以确保模型检查点已准备好。

更多详情,请访问 ollama.ai。

llama.cpp

下载我们提供的 GGUF 文件或自己创建,然后可以使用最新版本的 llama.cpp 通过一行命令直接使用它们:

MLX-LM

如果您在 Apple Silicon 上运行,我们也提供了与 mlx-lm 兼容的检查点。在 HuggingFace Hub 上寻找以 MLX 结尾的模型,比如 Qwen2.5-7B-Instruct-MLX。

LMStudio

Qwen2.5 已经被 lmstudio.ai 支持。您可以直接使用 LMStudio 与我们的 GGUF 文件。

OpenVINO

Qwen2.5 已经被 OpenVINO 工具包支持。您可以安装并使用 Intel CPU、集成显卡或独立显卡运行这个聊天机器人示例。

3.2、Web UI

文本生成 Web 用户界面

您可以直接使用 text-generation-webui 创建 Web UI 演示。如果您使用 GGUF,请记得安装支持 Qwen2.5 的最新 llama.cpp wheel。

llamafile

克隆 llamafile,运行源安装,然后按照此处的指南使用 GGUF 文件创建您自己的 llamafile。您能够运行一条命令,比如 ./qwen.llamafile,来创建一个演示。

4、部署

Qwen2.5 得到了多个推理框架的支持。这里我们演示了 vLLM 和 SGLang 的使用。

vLLM

我们建议您使用最新版本的 vLLM 构建兼容 OpenAI 的 API 服务,包括工具使用支持。使用聊天模型启动服务器,例如 Qwen2.5-7B-Instruct:

SGLang

警告

SGLang 当前提供的兼容 OpenAI 的 API 尚不支持工具使用或函数调用。

请从源代码安装 SGLang。类似于 vLLM,您需要启动一个服务器并使用兼容 OpenAI 的 API 服务。首先启动服务器:

5、工具使用

对于工具使用能力,我们建议查看 Qwen-Agent,它为这些 API 提供了一个封装,以支持工具使用或函数调用。也可以使用 Hugging Face transformers、Ollama 和 vLLM 与 Qwen2.5 进行工具使用。请跟随我们的文档中的指南了解如何启用支持。

6、微调

我们建议您使用训练框架,包括 Axolotl、Llama-Factory、unsloth、Swift 等,利用 SFT、DPO、PPO 等方法微调您的模型。

Qwen2.5的案例应用

持续更新中……

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mfbz.cn/a/882368.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

【编程底层原理】Java常用读写锁的使用和原理

一、引言 在Java的并发世界中,合理地管理对共享资源的访问是至关重要的。读写锁(ReadWriteLock)正是一种能让多个线程同时读取共享资源,而写入资源时需要独占访问的同步工具。本文将带你了解读写锁的使用方法、原理以及它如何提高…

这8款AI论文工具帮你一键搞定!ai论文一键生成任务书

在当今学术研究和论文写作领域,AI技术的应用已经成为一种趋势。通过智能算法和大数据分析,AI工具能够帮助学者和学生提高写作效率、优化内容结构,并确保论文的原创性和质量。以下是8款值得推荐的AI论文工具,其中特别推荐千笔-AIPa…

选择排序(C语言实现)

目录 1.基本思想 2.代码实现 代码思路 代码实现 代码测试 3.复杂度分析 1)时间复杂度 2)空间复杂度 4.特性总结 1.基本思想 选择排序是一种简单直观的比较排序算法。该算法的基本思想是在每一轮中选出当前未排序部分的最小(或最大&a…

通过 LabVIEW 正则表达式读取数值(整数或小数)

在LabVIEW开发中,字符串处理是一个非常常见的需求,尤其是在处理包含复杂格式的数字时。本文通过一个具体的例子来说明如何利用 Match Regular Expression Function 和 Match Pattern Function 读取并解析字符串中的数字,并重点探讨这两个函数…

日期和时间类【Date】【Calendar日历类】【LocalDate】Date-Time API详解

我们先来介绍一下与时间相关的基础知识。 GMT - 格林尼治标准时间(Greenwich Mean Time),简称GMT,实际上与世界时UT(universal time )基本一致。 UTC - 协调世界时(Universal Time Coordinated&…

matlab恢复默认窗口布局

1.点击主页,选择布局 2.选择默认,即可恢复到默认的窗口布局

Linux系统上搭建Vulhub靶场

Linux系统上搭建Vulhub靶场 ​vulhub​ 是一个开源的漏洞靶场,它提供了各种易受攻击的服务和应用程序,供安全研究人员和学习者测试和练习。要在 Linux 系统上安装和运行 vulhub​,可以按照以下步骤进行: 1. 安装 Docker 和 Docke…

C#软键盘设计字母数字按键处理相关事件函数

应用场景:便携式设备和检测设备等小型设备经常使用触摸屏来代替键盘鼠标的使用,因此在查询和输入界面的文本或者数字输入控件中使用软件盘来代替真正键盘的输入。 软键盘界面:软键盘界面实质上就是一个普通的窗体上面摆放了很多图片按钮&…

二叉树---java---黑马

二叉树 遍历 遍历分两种 广度优先遍历 尽可能先访问距离根节点最近的节点,也称之为层序遍历。 深度优先遍历 对于二叉树,进一步分为三种 pre-order前序遍历,对于每一颗子树,先访问该节点,然后是左子树&#xf…

探索RESTful风格的网络请求:构建高效、可维护的API接口【后端 20】

探索RESTful风格的网络请求:构建高效、可维护的API接口 在当今的软件开发领域,RESTful(Representational State Transfer)风格的网络请求已经成为构建Web服务和API接口的标配。RESTful风格以其简洁、无状态、可缓存以及分层系统等…

利用影刀实现批量发布文章的RPA流程(附视频演示)

前言 大家好,我是小智。在这篇文章中,我将分享一个实战案例,展示如何利用影刀实现批量发布文章的RPA流程。这里主要介绍其中一个简单步骤,其它步骤将通过视频演示。有使用方面的疑问可以留言。 影刀是一款强大的自动化工具&#x…

Java项目实战II基于Java+Spring Boot+MySQL的网上租贸系统设计与实现(开发文档+源码+数据库)

目录 一、前言 二、技术介绍 三、系统实现 四、论文参考 五、核心代码 六、源码获取 全栈码农以及毕业设计实战开发,CSDN平台Java领域新星创作者,专注于大学生项目实战开发、讲解和毕业答疑辅导。获取源码联系方式请查看文末 一、前言 "随着…

简单的云存储靶场

搭建靶场 我这里使用tx云,请自行搭建 https://shuihui2211-1329809954.cos.ap-nanjing.myqcloud.com 复现 私有读写 访问权限为私有读写时,我们访问url则会出现如下提示 目录遍历 漏洞成因 将policy权限设置为所有操作时 复现 我这里上传了一…

java-----异常

目录 异常:代表程序出现的问题 运行时异常和编译时异常的区别? 异常的作用: 异常的处理方式: 异常中常见的方法: 抛出异常: 自定义异常: 异常:代表程序出现的问题 Exception:叫做异常,代表程序可能出现的问题。…

Python 连接mysql数据库,并且执行查询

之前一直在写Java,但是随着python的崛起,自己也被慢慢的带入到了这样的一个阵营,学习python,了解机器学习 曾经有一个.... 不谈曾经,现在的我是一个小菜鸟,用学习Java实现业务的需求来学习python 项目的目…

科研绘图系列:R语言树结构聚类热图(cluster heatmap)

文章目录 介绍加载R包导入数据数据预处理画图修改图形导出数据系统信息介绍 热图结合树结构展示聚类结果通常用于展示数据集中的模式和关系,这种图形被称为聚类热图或层次聚类热图。在这种图中,热图部分显示了数据矩阵的颜色编码值,而树结构(通常称为树状图或聚类树)则显…

iptables限制网速

1、使用hashlimit来限速 #从eth0网卡进入INPUT链数据,使用模块hashlimit 限制网速为100kb/s或2mb/s,超过限制的数据包会被DROP。OUTPUT链同理,mode为srcip,有4个mode选项: srcip(默认匹配每个源地址IP,配置指定源地址…

计算机网络33——文件系统

1、chmod 2、chown 需要有root权限 3、link 链接 4、unlink 创建临时文件,用于非正常退出 5、vi vi可以打开文件夹 ../是向外一个文件夹 6、ls ls 可以加很多路径,路径可以是文件夹,也可以是文件 ---------------------------------…

Tcping:一款实用的端口存活检测工具

简介 tcping 是一个基于TCP协议的网络诊断工具,通过发送 TCP SYN/ACK包来检测目标主机的端口状态。 官网:tcping.exe - ping over a tcp connection 优点: (1)监听服务器端口状态:tcping 可以检测指定端口的状态,默认是80端口,也可以指定其他端口。 (2)显示ping返…

桌面便签哪个好用?好用的便签软件推荐?

随着信息技术的发展,我们的生活方式也发生了翻天覆地的变化。从纸质笔记本到电子便签,这不仅仅是载体的转换,更是思维习惯的一次革新。在这个数字时代,如何利用科技工具来辅助我们更好地管理时间和信息,成为了值得探讨…