【Transformer-Hugging Face手册 07/10】 微调预训练模型_预训练模型的tokenizer的返回类型是batchencoding吗-程序员宅基地

技术标签: NLP高级和ChatGPT  深度学习  人工智能  transformer  

一、说明

   使用预训练模型有显着的好处。它可以降低计算成本和碳足迹,并允许您使用最先进的模型,而无需从头开始训练。 Transformers 提供了针对各种任务的数千个预训练模型的访问权限。当您使用预训练模型时,您可以在特定于您的任务的数据集上对其进行训练。这被称为微调,是一种非常强大的训练技术。在本教程中,您将使用您选择的深度学习框架微调预训练模型:

  •    使用 Transformers Trainer微调预训练模型。
  •    使用 Keras 微调 TensorFlow 中的预训练模型。

二、在本机 PyTorch 中微调预训练模型。

   在微调预训练模型之前,请下载数据集并准备进行训练。之前的教程向您展示了如何处理训练数据,现在您有机会测试这些技能!

2.1 加载数据

   首先加载Yelp 评论数据集:

 from datasets import load_dataset
dataset = load_dataset("yelp_review_full")
dataset["train"][100] 

{‘label’: 0,
‘text’: ‘My expectations for McDonalds are t rarely high. But for one to still fail so spectacularly…that takes something special!\nThe cashier took my friends’s order, then promptly ignored me. I had to force myself in front of a cashier who opened his register to wait on the person BEHIND me. I waited over five minutes for a gigantic order that included precisely one kid’s meal. After watching two people who ordered after me be handed their food, I asked where mine was. The manager started yelling at the cashiers for \“serving off their orders\” when they didn’t have their food. But neither cashier was anywhere near those controls, and the manager was the one serving food to customers and clearing the boards.\nThe manager was rude when giving me my order. She didn’t make sure that I had everything ON MY RECEIPT, and never even had the decency to apologize that I felt I was getting poor service.\nI’ve eaten at various McDonalds restaurants for over 30 years. I’ve worked at more than one location. I expect bad days, bad moods, and the occasional mistake. But I have yet to have a decent experience at this store. It will remain a place I avoid unless someone in my party needs to avoid illness from low blood sugar. Perhaps I should go back to the racially biased service of Steak n Shake instead!’}

   正如您现在所知,您需要一个分词器来处理文本,并包含填充和截断策略来处理任何可变序列长度。要一步处理数据集,请使用 Datasetsmap方法对整个数据集应用预处理函数:

 from transformers import AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("bert-base-cased")
def tokenize_function(examples):
    return tokenizer(examples["text"], padding="max_length", truncation=True)
tokenized_datasets = dataset.map(tokenize_function, batched=True)

如果您愿意,您可以创建完整数据集的较小子集进行微调以减少所需的时间:

small_train_dataset = tokenized_datasets["train"].shuffle(seed=42).select(range(1000))
small_eval_dataset = tokenized_datasets["test"].shuffle(seed=42).select(range(1000))

2.2 训练

   此时,您应该按照与您要使用的框架相对应的部分进行操作。您可以使用右侧边栏中的链接跳转到您想要的链接 - 如果您想隐藏给定框架的所有内容,只需使用该框架块右上角的按钮即可!

2.2.1 使用 PyTorch Trainer 进行训练

   Transformers 提供了针对训练Transformers 模型进行优化的Trainer类,让您可以更轻松地开始训练,而无需手动编写自己的训练循环。 Trainer API 支持多种训练选项和功能,例如日志记录、梯度累积和混合精度。

   首先加载模型并指定预期标签的数量。从 Yelp Review数据集卡中,您知道有五个标签:

from transformers import AutoModelForSequenceClassification
model = AutoModelForSequenceClassification.from_pretrained("bert-base-cased", num_labels=5)

   您将看到有关未使用某些预训练权重以及某些权重被随机初始化的警告。别担心,这是完全正常的! BERT 模型的预训练头被丢弃,并替换为随机初始化的分类头。您将在序列分类任务中微调这个新模型头,将预训练模型的知识传递给它。

2.3 训练超参数

   接下来,创建一个TrainingArguments类,其中包含您可以调整的所有超参数以及用于激活不同训练选项的标志。对于本教程,您可以从默认的训练超参数开始,但请随意尝试这些参数以找到最佳设置。

   指定保存训练检查点的位置:

from transformers import TrainingArguments
training_args = TrainingArguments(output_dir="test_trainer")

2.4 评价

   Trainer在训练期间不会自动评估模型性能。您需要向Trainer传递一个函数来计算和报告指标。 Evaluate库提供了一个简单的accuracy函数,您可以使用evaluate.load(有关更多信息,请参阅此快速教程)函数加载:

import numpy as np
import evaluate
metric = evaluate.load("accuracy")

   呼吁compute计算metric您的预测的准确性。在将预测传递给 之前compute,您需要将 logits 转换为预测(记住所有 Transformers 模型都返回 logits):

def compute_metrics(eval_pred):
    logits, labels = eval_pred
    predictions = np.argmax(logits, axis=-1)
    return metric.compute(predictions=predictions, references=labels)

   如果您想在微调期间监控评估指标,请evaluation_strategy在训练参数中指定参数以在每个周期结束时报告评估指标:

from transformers import TrainingArguments, Trainer
training_args = TrainingArguments(output_dir="test_trainer", evaluation_strategy="epoch")

2.5 训练类

   使用您的模型、训练参数、训练和测试数据集以及评估函数创建一个Trainer对象:

trainer = Trainer(
      model=model,
      args=training_args,
      train_dataset=small_train_dataset,
      eval_dataset=small_eval_dataset,
      compute_metrics=compute_metrics,
  )

   然后通过调用train()微调您的模型:

trainer.train()

三、使用 Keras 训练 TensorFlow 模型

   您还可以使用 Keras API 在 TensorFlow 中训练 Transformers 模型!

3.1 为 Keras 加载数据

   当您想要使用 Keras API 训练 Transformers 模型时,您需要将数据集转换为 Keras 理解的格式。如果您的数据集很小,您可以将整个数据转换为 NumPy 数组并将其传递给 Keras。在做任何更复杂的事情之前,让我们先尝试一下。

   首先,加载数据集。我们将使用GLUE 基准测试中的 CoLA 数据集,因为它是一个简单的二进制文本分类任务,并且现在只进行训练分割。

from datasets import load_dataset

dataset = load_dataset("glue", "cola")
dataset = dataset["train"]  # Just take the training split for now

   接下来,加载分词器并将数据分词为 NumPy 数组。请注意,标签已经是 0 和 1 的列表,因此我们可以直接将其转换为 NumPy 数组,而无需标记化!

from transformers import AutoTokenizer

tokenizer = AutoTokenizer.from_pretrained("bert-base-cased")
tokenized_data = tokenizer(dataset["sentence"], return_tensors="np", padding=True)
# Tokenizer returns a BatchEncoding, but we convert that to a dict for Keras
tokenized_data = dict(tokenized_data)

labels = np.array(dataset["label"])  # Label is already an array of 0 and 1

   最后,加载 、compile和fit模型。请注意,Transformers 模型都有一个默认的与任务相关的损失函数,因此您不需要指定一个,除非您想要:

from transformers import TFAutoModelForSequenceClassification
from tensorflow.keras.optimizers import Adam

# Load and compile our model
model = TFAutoModelForSequenceClassification.from_pretrained("bert-base-cased")
# Lower learning rates are often better for fine-tuning transformers
model.compile(optimizer=Adam(3e-5))  # No loss argument!

model.fit(tokenized_data, labels)

   当您使用模型时,您不必向模型传递损失参数compile()!如果此参数留空,Huging Face 模型会自动选择适合其任务和模型架构的损失。如果您愿意,您始终可以通过自己指定损失来覆盖此设置!

   这种方法对于较小的数据集非常有效,但对于较大的数据集,您可能会发现它开始成为问题。为什么?因为标记化数组和标签必须完全加载到内存中,并且因为 NumPy 不处理“锯齿状”数组,所以每个标记化样本都必须填充到整个数据集中最长样本的长度。这将使您的数组变得更大,并且所有这些填充令牌也会减慢训练速度!

3.2 将数据加载为 tf.data.Dataset

   如果您想避免减慢训练速度,可以改为加载数据tf.data.Dataset。尽管您可以tf.data根据需要编写自己的 管道,但我们有两种方便的方法来执行此操作:

   prepare_tf_dataset():这是我们在大多数情况下推荐的方法。因为它是模型上的一种方法,所以它可以检查模型以自动找出哪些列可用作模型输入,并丢弃其他列以创建更简单、性能更高的数据集。
to_tf_dataset:此方法更加底层,当您想要通过准确指定要包含哪些columns和label_cols来精确控制数据集的创建方式时非常有用。
   在使用prepare_tf_dataset()之前,您需要将分词器输出作为列添加到数据集,如以下代码示例所示:

def tokenize_dataset(data):
    # Keys of the returned dictionary will be added to the dataset as columns
    return tokenizer(data["text"])
dataset = dataset.map(tokenize_dataset)

   请记住,拥抱脸部数据集默认存储在磁盘上,因此这不会增加您的内存使用量!添加列后,您可以从数据集中流式传输批次并向每个批次添加填充,与填充整个数据集相比,这大大减少了填充标记的数量。

tf_dataset = model.prepare_tf_dataset(dataset["train"], batch_size=16, shuffle=True, tokenizer=tokenizer)

   请注意,在上面的代码示例中,您需要传递标记生成器,prepare_tf_dataset以便它可以在加载批次时正确填充批次。如果数据集中的所有样本长度相同并且不需要填充,则可以跳过此参数。如果您需要做一些比填充样本更复杂的事情(例如,破坏掩码语言建模的标记),您可以使用参数collate_fn来传递一个函数,该函数将被调用以将样本列表转换为批处理并应用您需要的任何预处理想。请参阅我们的 示例或 笔记本来了解这种方法的实际效果。

   创建 后tf.data.Dataset,您可以像以前一样编译并拟合模型:

model.compile(optimizer=Adam(3e-5))  # No loss argument!
model.fit(tf_dataset)

   Trainer负责训练循环,并允许您在一行代码中微调模型。对于喜欢编写自己的训练循环的用户,您还可以在本机 PyTorch 中微调 Transformers 模型。

   此时,您可能需要重新启动笔记本或执行以下代码来释放一些内存:

del model
del trainer
torch.cuda.empty_cache()

   接下来,手动进行后处理tokenized_dataset以准备训练。

   删除该text列,因为模型不接受原始文本作为输入:

 tokenized_datasets = tokenized_datasets.remove_columns([ "text" ])

   将列重命名label为 ,labels因为模型期望将参数命名为labels:

 tokenized_datasets = tokenized_datasets.rename_column( "标签" , "标签" )

   设置数据集的格式以返回 PyTorch 张量而不是列表:

 tokenized_datasets.set_format( "pytorch" )

   然后创建数据集的较小子集(如前所示)以加快微调速度:

small_train_dataset = tokenized_datasets["train"].shuffle(seed=42).select(range(1000))
small_eval_dataset = tokenized_datasets["test"].shuffle(seed=42).select(range(1000))

3.3 数据加载器

   为您的训练和测试数据集创建一个DataLoader,以便您可以迭代批量数据:

from torch.utils.data import DataLoader
train_dataloader = DataLoader(small_train_dataset, shuffle=True, batch_size=8)
eval_dataloader = DataLoader(small_eval_dataset, batch_size=8)

   使用预期标签数量加载模型:

from transformers import AutoModelForSequenceClassification
model = AutoModelForSequenceClassification.from_pretrained("bert-base-cased", num_labels=5)

3.4 优化器和学习率调度器

   创建优化器和学习率调度器来微调模型。让我们使用AdamWPyTorch 的优化器:

from torch.optim import AdamW
optimizer = AdamW(model.parameters(), lr=5e-5)

   从 Trainer 创建默认学习率调度程序:

from transformers import get_scheduler

num_epochs = 3
num_training_steps = num_epochs * len(train_dataloader)
lr_scheduler = get_scheduler(
    name="linear", optimizer=optimizer, num_warmup_steps=0, num_training_steps=num_training_steps
)

   最后,如果您有权使用 GPU,请指定使用 GPU 的设备。否则,CPU 上的训练可能需要几个小时而不是几分钟。

import torch

device = torch.device("cuda") if torch.cuda.is_available() else torch.device("cpu")
model.to(device)

   如果您没有像Colaboratory或SageMaker StudioLab这样的托管笔记本,可以免费访问云 GPU 。

3.5 训练循环

   要跟踪您的训练进度,请使用tqdm库在训练步骤数上添加进度条:

from tqdm.auto import tqdm

progress_bar = tqdm(range(num_training_steps))

model.train()
for epoch in range(num_epochs):
    for batch in train_dataloader:
        batch = {
    k: v.to(device) for k, v in batch.items()}
        outputs = model(**batch)
        loss = outputs.loss
        loss.backward()

        optimizer.step()
        lr_scheduler.step()
        optimizer.zero_grad()
        progress_bar.update(1)

3.6 评价

   就像您向Trainer添加评估函数一样,您在编写自己的训练循环时也需要执行相同的操作。但这次您将累积所有批次并在最后计算指标,而不是在每个时期add_batch结束时计算和报告指标。

import evaluate

metric = evaluate.load("accuracy")
model.eval()
for batch in eval_dataloader:
    batch = {
    k: v.to(device) for k, v in batch.items()}
    with torch.no_grad():
        outputs = model(**batch)

    logits = outputs.logits
    predictions = torch.argmax(logits, dim=-1)
    metric.add_batch(predictions=predictions, references=batch["labels"])

metric.compute()

四、结论

   本篇基本上描绘了如何实现微调,更多微调示例请参考:

Transformers Examples包括在 PyTorch 和 TensorFlow 中训练常见 NLP 任务的脚本。

Transformers Notebooks包含有关如何针对 PyTorch 和 TensorFlow 中的特定任务微调模型的各种笔记本。

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/gongdiwudu/article/details/136071906

智能推荐

攻防世界_难度8_happy_puzzle_攻防世界困难模式攻略图文-程序员宅基地

文章浏览阅读645次。这个肯定是末尾的IDAT了,因为IDAT必须要满了才会开始一下个IDAT,这个明显就是末尾的IDAT了。,对应下面的create_head()代码。,对应下面的create_tail()代码。不要考虑爆破,我已经试了一下,太多情况了。题目来源:UNCTF。_攻防世界困难模式攻略图文

达梦数据库的导出(备份)、导入_达梦数据库导入导出-程序员宅基地

文章浏览阅读2.9k次,点赞3次,收藏10次。偶尔会用到,记录、分享。1. 数据库导出1.1 切换到dmdba用户su - dmdba1.2 进入达梦数据库安装路径的bin目录,执行导库操作  导出语句:./dexp cwy_init/[email protected]:5236 file=cwy_init.dmp log=cwy_init_exp.log 注释:   cwy_init/init_123..._达梦数据库导入导出

js引入kindeditor富文本编辑器的使用_kindeditor.js-程序员宅基地

文章浏览阅读1.9k次。1. 在官网上下载KindEditor文件,可以删掉不需要要到的jsp,asp,asp.net和php文件夹。接着把文件夹放到项目文件目录下。2. 修改html文件,在页面引入js文件:<script type="text/javascript" src="./kindeditor/kindeditor-all.js"></script><script type="text/javascript" src="./kindeditor/lang/zh-CN.js"_kindeditor.js

STM32学习过程记录11——基于STM32G431CBU6硬件SPI+DMA的高效WS2812B控制方法-程序员宅基地

文章浏览阅读2.3k次,点赞6次,收藏14次。SPI的详情简介不必赘述。假设我们通过SPI发送0xAA,我们的数据线就会变为10101010,通过修改不同的内容,即可修改SPI中0和1的持续时间。比如0xF0即为前半周期为高电平,后半周期为低电平的状态。在SPI的通信模式中,CPHA配置会影响该实验,下图展示了不同采样位置的SPI时序图[1]。CPOL = 0,CPHA = 1:CLK空闲状态 = 低电平,数据在下降沿采样,并在上升沿移出CPOL = 0,CPHA = 0:CLK空闲状态 = 低电平,数据在上升沿采样,并在下降沿移出。_stm32g431cbu6

计算机网络-数据链路层_接收方收到链路层数据后,使用crc检验后,余数为0,说明链路层的传输时可靠传输-程序员宅基地

文章浏览阅读1.2k次,点赞2次,收藏8次。数据链路层习题自测问题1.数据链路(即逻辑链路)与链路(即物理链路)有何区别?“电路接通了”与”数据链路接通了”的区别何在?2.数据链路层中的链路控制包括哪些功能?试讨论数据链路层做成可靠的链路层有哪些优点和缺点。3.网络适配器的作用是什么?网络适配器工作在哪一层?4.数据链路层的三个基本问题(帧定界、透明传输和差错检测)为什么都必须加以解决?5.如果在数据链路层不进行帧定界,会发生什么问题?6.PPP协议的主要特点是什么?为什么PPP不使用帧的编号?PPP适用于什么情况?为什么PPP协议不_接收方收到链路层数据后,使用crc检验后,余数为0,说明链路层的传输时可靠传输

软件测试工程师移民加拿大_无证移民,未受过软件工程师的教育(第1部分)-程序员宅基地

文章浏览阅读587次。软件测试工程师移民加拿大 无证移民,未受过软件工程师的教育(第1部分) (Undocumented Immigrant With No Education to Software Engineer(Part 1))Before I start, I want you to please bear with me on the way I write, I have very little gen...

随便推点

Thinkpad X250 secure boot failed 启动失败问题解决_安装完系统提示secureboot failure-程序员宅基地

文章浏览阅读304次。Thinkpad X250笔记本电脑,装的是FreeBSD,进入BIOS修改虚拟化配置(其后可能是误设置了安全开机),保存退出后系统无法启动,显示:secure boot failed ,把自己惊出一身冷汗,因为这台笔记本刚好还没开始做备份.....根据错误提示,到bios里面去找相关配置,在Security里面找到了Secure Boot选项,发现果然被设置为Enabled,将其修改为Disabled ,再开机,终于正常启动了。_安装完系统提示secureboot failure

C++如何做字符串分割(5种方法)_c++ 字符串分割-程序员宅基地

文章浏览阅读10w+次,点赞93次,收藏352次。1、用strtok函数进行字符串分割原型: char *strtok(char *str, const char *delim);功能:分解字符串为一组字符串。参数说明:str为要分解的字符串,delim为分隔符字符串。返回值:从str开头开始的一个个被分割的串。当没有被分割的串时则返回NULL。其它:strtok函数线程不安全,可以使用strtok_r替代。示例://借助strtok实现split#include <string.h>#include <stdio.h&_c++ 字符串分割

2013第四届蓝桥杯 C/C++本科A组 真题答案解析_2013年第四届c a组蓝桥杯省赛真题解答-程序员宅基地

文章浏览阅读2.3k次。1 .高斯日记 大数学家高斯有个好习惯:无论如何都要记日记。他的日记有个与众不同的地方,他从不注明年月日,而是用一个整数代替,比如:4210后来人们知道,那个整数就是日期,它表示那一天是高斯出生后的第几天。这或许也是个好习惯,它时时刻刻提醒着主人:日子又过去一天,还有多少时光可以用于浪费呢?高斯出生于:1777年4月30日。在高斯发现的一个重要定理的日记_2013年第四届c a组蓝桥杯省赛真题解答

基于供需算法优化的核极限学习机(KELM)分类算法-程序员宅基地

文章浏览阅读851次,点赞17次,收藏22次。摘要:本文利用供需算法对核极限学习机(KELM)进行优化,并用于分类。

metasploitable2渗透测试_metasploitable2怎么进入-程序员宅基地

文章浏览阅读1.1k次。一、系统弱密码登录1、在kali上执行命令行telnet 192.168.26.1292、Login和password都输入msfadmin3、登录成功,进入系统4、测试如下:二、MySQL弱密码登录:1、在kali上执行mysql –h 192.168.26.129 –u root2、登录成功,进入MySQL系统3、测试效果:三、PostgreSQL弱密码登录1、在Kali上执行psql -h 192.168.26.129 –U post..._metasploitable2怎么进入

Python学习之路:从入门到精通的指南_python人工智能开发从入门到精通pdf-程序员宅基地

文章浏览阅读257次。本文将为初学者提供Python学习的详细指南,从Python的历史、基础语法和数据类型到面向对象编程、模块和库的使用。通过本文,您将能够掌握Python编程的核心概念,为今后的编程学习和实践打下坚实基础。_python人工智能开发从入门到精通pdf

推荐文章

热门文章

相关标签