20 KiB
聊天模型的模板
介绍
LLM 的一个常见应用场景是聊天。在聊天上下文中,不再是连续的文本字符串构成的语句(不同于标准的语言模型), 聊天模型由一条或多条消息组成的对话组成,每条消息都有一个“用户”或“助手”等 角色,还包括消息文本。
与Tokenizer
类似,不同的模型对聊天的输入格式要求也不同。这就是我们添加聊天模板作为一个功能的原因。
聊天模板是Tokenizer
的一部分。用来把问答的对话内容转换为模型的输入prompt
。
让我们通过一个快速的示例来具体说明,使用BlenderBot
模型。
BlenderBot有一个非常简单的默认模板,主要是在对话轮之间添加空格:
>>> from transformers import AutoTokenizer
>>> tokenizer = AutoTokenizer.from_pretrained("facebook/blenderbot-400M-distill")
>>> chat = [
... {"role": "user", "content": "Hello, how are you?"},
... {"role": "assistant", "content": "I'm doing great. How can I help you today?"},
... {"role": "user", "content": "I'd like to show off how chat templating works!"},
... ]
>>> tokenizer.apply_chat_template(chat, tokenize=False)
" Hello, how are you? I'm doing great. How can I help you today? I'd like to show off how chat templating works!</s>"
注意,整个聊天对话内容被压缩成了一整个字符串。如果我们使用默认设置的tokenize=True
,那么该字符串也将被tokenized处理。
不过,为了看到更复杂的模板实际运行,让我们使用mistralai/Mistral-7B-Instruct-v0.1
模型。
>>> from transformers import AutoTokenizer
>>> tokenizer = AutoTokenizer.from_pretrained("mistralai/Mistral-7B-Instruct-v0.1")
>>> chat = [
... {"role": "user", "content": "Hello, how are you?"},
... {"role": "assistant", "content": "I'm doing great. How can I help you today?"},
... {"role": "user", "content": "I'd like to show off how chat templating works!"},
... ]
>>> tokenizer.apply_chat_template(chat, tokenize=False)
"<s>[INST] Hello, how are you? [/INST]I'm doing great. How can I help you today?</s> [INST] I'd like to show off how chat templating works! [/INST]"
可以看到,这一次tokenizer已经添加了[INST]和[/INST]来表示用户消息的开始和结束。 Mistral-instruct是有使用这些token进行训练的,但BlenderBot没有。
我如何使用聊天模板?
正如您在上面的示例中所看到的,聊天模板非常容易使用。只需构建一系列带有role
和content
键的消息,
然后将其传递给[~PreTrainedTokenizer.apply_chat_template
]方法。
另外,在将聊天模板用作模型预测的输入时,还建议使用add_generation_prompt=True
来添加generation prompt。
这是一个准备model.generate()
的示例,使用Zephyr
模型:
from transformers import AutoModelForCausalLM, AutoTokenizer
checkpoint = "HuggingFaceH4/zephyr-7b-beta"
tokenizer = AutoTokenizer.from_pretrained(checkpoint)
model = AutoModelForCausalLM.from_pretrained(checkpoint) # You may want to use bfloat16 and/or move to GPU here
messages = [
{
"role": "system",
"content": "You are a friendly chatbot who always responds in the style of a pirate",
},
{"role": "user", "content": "How many helicopters can a human eat in one sitting?"},
]
tokenized_chat = tokenizer.apply_chat_template(messages, tokenize=True, add_generation_prompt=True, return_tensors="pt")
print(tokenizer.decode(tokenized_chat[0]))
这将生成Zephyr期望的输入格式的字符串。它看起来像这样:
<|system|>
You are a friendly chatbot who always responds in the style of a pirate</s>
<|user|>
How many helicopters can a human eat in one sitting?</s>
<|assistant|>
现在我们已经按照Zephyr
的要求传入prompt了,我们可以使用模型来生成对用户问题的回复:
outputs = model.generate(tokenized_chat, max_new_tokens=128)
print(tokenizer.decode(outputs[0]))
输出结果是:
<|system|>
You are a friendly chatbot who always responds in the style of a pirate</s>
<|user|>
How many helicopters can a human eat in one sitting?</s>
<|assistant|>
Matey, I'm afraid I must inform ye that humans cannot eat helicopters. Helicopters are not food, they are flying machines. Food is meant to be eaten, like a hearty plate o' grog, a savory bowl o' stew, or a delicious loaf o' bread. But helicopters, they be for transportin' and movin' around, not for eatin'. So, I'd say none, me hearties. None at all.
啊,原来这么容易!
有自动化的聊天pipeline
吗?
有的,[ConversationalPipeline
]。这个pipeline
的设计是为了方便使用聊天模型。让我们再试一次 Zephyr 的例子,但这次使用pipeline
:
from transformers import pipeline
pipe = pipeline("conversational", "HuggingFaceH4/zephyr-7b-beta")
messages = [
{
"role": "system",
"content": "You are a friendly chatbot who always responds in the style of a pirate",
},
{"role": "user", "content": "How many helicopters can a human eat in one sitting?"},
]
print(pipe(messages))
Conversation id: 76d886a0-74bd-454e-9804-0467041a63dc
system: You are a friendly chatbot who always responds in the style of a pirate
user: How many helicopters can a human eat in one sitting?
assistant: Matey, I'm afraid I must inform ye that humans cannot eat helicopters. Helicopters are not food, they are flying machines. Food is meant to be eaten, like a hearty plate o' grog, a savory bowl o' stew, or a delicious loaf o' bread. But helicopters, they be for transportin' and movin' around, not for eatin'. So, I'd say none, me hearties. None at all.
[ConversationalPipeline
]将负责处理所有的tokenized
并调用apply_chat_template
,一旦模型有了聊天模板,您只需要初始化pipeline并传递消息列表!
什么是"generation prompts"?
您可能已经注意到apply_chat_template
方法有一个add_generation_prompt
参数。
这个参数告诉模板添加模型开始答复的标记。例如,考虑以下对话:
messages = [
{"role": "user", "content": "Hi there!"},
{"role": "assistant", "content": "Nice to meet you!"},
{"role": "user", "content": "Can I ask a question?"}
]
这是add_generation_prompt=False
的结果,使用ChatML模板:
tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=False)
"""<|im_start|>user
Hi there!<|im_end|>
<|im_start|>assistant
Nice to meet you!<|im_end|>
<|im_start|>user
Can I ask a question?<|im_end|>
"""
下面这是add_generation_prompt=True
的结果:
tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
"""<|im_start|>user
Hi there!<|im_end|>
<|im_start|>assistant
Nice to meet you!<|im_end|>
<|im_start|>user
Can I ask a question?<|im_end|>
<|im_start|>assistant
"""
这一次我们添加了模型开始答复的标记。这可以确保模型生成文本时只会给出答复,而不会做出意外的行为,比如继续用户的消息。 记住,聊天模型只是语言模型,它们被训练来继续文本,而聊天对它们来说只是一种特殊的文本! 你需要用适当的控制标记来引导它们,让它们知道自己应该做什么。
并非所有模型都需要生成提示。一些模型,如BlenderBot和LLaMA,在模型回复之前没有任何特殊标记。
在这些情况下,add_generation_prompt
参数将不起作用。add_generation_prompt
参数取决于你所使用的模板。
我可以在训练中使用聊天模板吗?
可以!我们建议您将聊天模板应用为数据集的预处理步骤。之后,您可以像进行任何其他语言模型训练任务一样继续。
在训练时,通常应该设置add_generation_prompt=False
,因为添加的助手标记在训练过程中并不会有帮助。
让我们看一个例子:
from transformers import AutoTokenizer
from datasets import Dataset
tokenizer = AutoTokenizer.from_pretrained("HuggingFaceH4/zephyr-7b-beta")
chat1 = [
{"role": "user", "content": "Which is bigger, the moon or the sun?"},
{"role": "assistant", "content": "The sun."}
]
chat2 = [
{"role": "user", "content": "Which is bigger, a virus or a bacterium?"},
{"role": "assistant", "content": "A bacterium."}
]
dataset = Dataset.from_dict({"chat": [chat1, chat2]})
dataset = dataset.map(lambda x: {"formatted_chat": tokenizer.apply_chat_template(x["chat"], tokenize=False, add_generation_prompt=False)})
print(dataset['formatted_chat'][0])
结果是:
<|user|>
Which is bigger, the moon or the sun?</s>
<|assistant|>
The sun.</s>
这样,后面你可以使用formatted_chat
列,跟标准语言建模任务中一样训练即可。
高级:聊天模板是如何工作的?
模型的聊天模板存储在tokenizer.chat_template
属性上。如果没有设置,则将使用该模型的默认模板。
让我们来看看BlenderBot
的模板:
>>> from transformers import AutoTokenizer
>>> tokenizer = AutoTokenizer.from_pretrained("facebook/blenderbot-400M-distill")
>>> tokenizer.default_chat_template
"{% for message in messages %}{% if message['role'] == 'user' %}{{ ' ' }}{% endif %}{{ message['content'] }}{% if not loop.last %}{{ ' ' }}{% endif %}{% endfor %}{{ eos_token }}"
这看着有点复杂。让我们添加一些换行和缩进,使其更易读。
请注意,默认情况下忽略每个块后的第一个换行以及块之前的任何前导空格,
使用Jinja的trim_blocks
和lstrip_blocks
标签。
这里,请注意空格的使用。我们强烈建议您仔细检查模板是否打印了多余的空格!
{% for message in messages %}
{% if message['role'] == 'user' %}
{{ ' ' }}
{% endif %}
{{ message['content'] }}
{% if not loop.last %}
{{ ' ' }}
{% endif %}
{% endfor %}
{{ eos_token }}
如果你之前不了解Jinja template。 Jinja是一种模板语言,允许你编写简单的代码来生成文本。 在许多方面,代码和语法类似于Python。在纯Python中,这个模板看起来会像这样:
for idx, message in enumerate(messages):
if message['role'] == 'user':
print(' ')
print(message['content'])
if not idx == len(messages) - 1: # Check for the last message in the conversation
print(' ')
print(eos_token)
这里使用Jinja模板处理如下三步:
- 对于每条消息,如果消息是用户消息,则在其前面添加一个空格,否则不打印任何内容
- 添加消息内容
- 如果消息不是最后一条,请在其后添加两个空格。在最后一条消息之后,打印
EOS
。
这是一个简单的模板,它不添加任何控制tokens,也不支持system
消息(常用于指导模型在后续对话中如何表现)。
但 Jinja 给了你很大的灵活性来做这些事情!让我们看一个 Jinja 模板,
它可以实现类似于LLaMA的prompt输入(请注意,真正的LLaMA模板包括system
消息,请不要在实际代码中使用这个简单模板!)
{% for message in messages %}
{% if message['role'] == 'user' %}
{{ bos_token + '[INST] ' + message['content'] + ' [/INST]' }}
{% elif message['role'] == 'system' %}
{{ '<<SYS>>\\n' + message['content'] + '\\n<</SYS>>\\n\\n' }}
{% elif message['role'] == 'assistant' %}
{{ ' ' + message['content'] + ' ' + eos_token }}
{% endif %}
{% endfor %}
这里稍微看一下,就能明白这个模板的作用:它根据每条消息的“角色”添加对应的消息。
user
、assistant
、system
的消息需要分别处理,因为它们代表不同的角色输入。
高级:编辑聊天模板
如何创建聊天模板?
很简单,你只需编写一个jinja模板并设置tokenizer.chat_template
。你也可以从一个现有模板开始,只需要简单编辑便可以!
例如,我们可以采用上面的LLaMA模板,并在助手消息中添加"[ASST]"和"[/ASST]":
{% for message in messages %}
{% if message['role'] == 'user' %}
{{ bos_token + '[INST] ' + message['content'].strip() + ' [/INST]' }}
{% elif message['role'] == 'system' %}
{{ '<<SYS>>\\n' + message['content'].strip() + '\\n<</SYS>>\\n\\n' }}
{% elif message['role'] == 'assistant' %}
{{ '[ASST] ' + message['content'] + ' [/ASST]' + eos_token }}
{% endif %}
{% endfor %}
现在,只需设置tokenizer.chat_template
属性。下次使用[~PreTrainedTokenizer.apply_chat_template
]时,它将使用您的新模板!
此属性将保存在tokenizer_config.json
文件中,因此您可以使用[~utils.PushToHubMixin.push_to_hub
]将新模板上传到 Hub,
这样每个人都可以使用你模型的模板!
template = tokenizer.chat_template
template = template.replace("SYS", "SYSTEM") # Change the system token
tokenizer.chat_template = template # Set the new template
tokenizer.push_to_hub("model_name") # Upload your new template to the Hub!
由于[~PreTrainedTokenizer.apply_chat_template
]方法是由[ConversationalPipeline
]类调用,
因此一旦你设置了聊天模板,您的模型将自动与[ConversationalPipeline
]兼容。
“默认”模板是什么?
在引入聊天模板(chat_template)之前,聊天prompt是在模型中通过硬编码处理的。为了向前兼容,我们保留了这种硬编码处理聊天prompt的方法。
如果一个模型没有设置聊天模板,但其模型有默认模板,ConversationalPipeline
类和apply_chat_template
等方法将使用该模型的聊天模板。
您可以通过检查tokenizer.default_chat_template
属性来查找tokenizer
的默认模板。
这是我们纯粹为了向前兼容性而做的事情,以避免破坏任何现有的工作流程。即使默认的聊天模板适用于您的模型,
我们强烈建议通过显式设置chat_template
属性来覆盖默认模板,以便向用户清楚地表明您的模型已经正确的配置了聊天模板,
并且为了未来防范默认模板被修改或弃用的情况。
我应该使用哪个模板?
在为已经训练过的聊天模型设置模板时,您应确保模板与模型在训练期间看到的消息格式完全匹配,否则可能会导致性能下降。
即使您继续对模型进行训练,也应保持聊天模板不变,这样可能会获得最佳性能。
这与tokenization
非常类似,在推断时,你选用跟训练时一样的tokenization
,通常会获得最佳性能。
如果您从头开始训练模型,或者在微调基础语言模型进行聊天时,您有很大的自由选择适当的模板!
LLMs足够聪明,可以学会处理许多不同的输入格式。我们为没有特定类别模板的模型提供一个默认模板,该模板遵循
ChatML
format格式要求,对于许多用例来说,
这是一个很好的、灵活的选择。
默认模板看起来像这样:
{% for message in messages %}
{{'<|im_start|>' + message['role'] + '\n' + message['content'] + '<|im_end|>' + '\n'}}
{% endfor %}
如果您喜欢这个模板,下面是一行代码的模板形式,它可以直接复制到您的代码中。这一行代码还包括了[generation prompts](#什么是"generation prompts"?),
但请注意它不会添加BOS
或EOS
token。
如果您的模型需要这些token,它们不会被apply_chat_template
自动添加,换句话说,文本的默认处理参数是add_special_tokens=False
。
这是为了避免模板和add_special_tokens
逻辑产生冲突,如果您的模型需要特殊tokens,请确保将它们添加到模板中!
tokenizer.chat_template = "{% if not add_generation_prompt is defined %}{% set add_generation_prompt = false %}{% endif %}{% for message in messages %}{{'<|im_start|>' + message['role'] + '\n' + message['content'] + '<|im_end|>' + '\n'}}{% endfor %}{% if add_generation_prompt %}{{ '<|im_start|>assistant\n' }}{% endif %}"
该模板将每条消息包装在<|im_start|>
和<|im_end|>
tokens里面,并将角色简单地写为字符串,这样可以灵活地训练角色。输出如下:
<|im_start|>system
You are a helpful chatbot that will do its best not to say anything so stupid that people tweet about it.<|im_end|>
<|im_start|>user
How are you?<|im_end|>
<|im_start|>assistant
I'm doing great!<|im_end|>
user
,system
和assistant
是对话助手模型的标准角色,如果您的模型要与[ConversationalPipeline
]兼容,我们建议你使用这些角色。
但您可以不局限于这些角色,模板非常灵活,任何字符串都可以成为角色。
如何添加聊天模板?
如果您有任何聊天模型,您应该设置它们的tokenizer.chat_template
属性,并使用[~PreTrainedTokenizer.apply_chat_template
]测试,
然后将更新后的tokenizer
推送到 Hub。
即使您不是模型所有者,如果您正在使用一个空的聊天模板或者仍在使用默认的聊天模板,
请发起一个pull request,以便正确设置该属性!
一旦属性设置完成,就完成了!tokenizer.apply_chat_template
现在将在该模型中正常工作,
这意味着它也会自动支持在诸如ConversationalPipeline
的地方!
通过确保模型具有这一属性,我们可以确保整个社区都能充分利用开源模型的全部功能。 格式不匹配已经困扰这个领域并悄悄地损害了性能太久了,是时候结束它们了!
高级:模板写作技巧
如果你对Jinja不熟悉,我们通常发现编写聊天模板的最简单方法是先编写一个简短的Python脚本,按照你想要的方式格式化消息,然后将该脚本转换为模板。
请记住,模板处理程序将接收对话历史作为名为messages
的变量。每条message
都是一个带有两个键role
和content
的字典。
您可以在模板中像在Python中一样访问messages
,这意味着您可以使用{% for message in messages %}
进行循环,
或者例如使用{{ messages[0] }}
访问单个消息。
您也可以使用以下提示将您的代码转换为Jinja:
For循环
在Jinja中,for循环看起来像这样:
{% for message in messages %}
{{ message['content'] }}
{% endfor %}
请注意,{{ expression block }}
中的内容将被打印到输出。您可以在表达式块中使用像+
这样的运算符来组合字符串。
If语句
Jinja中的if语句如下所示:
{% if message['role'] == 'user' %}
{{ message['content'] }}
{% endif %}
注意Jinja使用{% endfor %}
和{% endif %}
来表示for
和if
的结束。
特殊变量
在您的模板中,您将可以访问messages
列表,但您还可以访问其他几个特殊变量。
这些包括特殊token
,如bos_token
和eos_token
,以及我们上面讨论过的add_generation_prompt
变量。
您还可以使用loop
变量来访问有关当前循环迭代的信息,例如使用{% if loop.last %}
来检查当前消息是否是对话中的最后一条消息。
以下是一个示例,如果add_generation_prompt=True
需要在对话结束时添加generate_prompt
:
{% if loop.last and add_generation_prompt %}
{{ bos_token + 'Assistant:\n' }}
{% endif %}
空格的注意事项
我们已经尽可能尝试让Jinja忽略除{{ expressions }}
之外的空格。
然而,请注意Jinja是一个通用的模板引擎,它可能会将同一行文本块之间的空格视为重要,并将其打印到输出中。
我们强烈建议在上传模板之前检查一下,确保模板没有在不应该的地方打印额外的空格!