161 lines
7.6 KiB
Markdown
161 lines
7.6 KiB
Markdown
<!--Copyright 2023 The HuggingFace Team. All rights reserved.
|
||
|
||
Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with
|
||
the License. You may obtain a copy of the License at
|
||
|
||
http://www.apache.org/licenses/LICENSE-2.0
|
||
|
||
Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on
|
||
an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the
|
||
specific language governing permissions and limitations under the License.
|
||
|
||
⚠️ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be
|
||
rendered properly in your Markdown viewer.
|
||
|
||
-->
|
||
|
||
# Models
|
||
|
||
ベースクラスである [`PreTrainedModel`]、[`TFPreTrainedModel`]、[`FlaxPreTrainedModel`] は、モデルの読み込みと保存に関する共通のメソッドを実装しており、これはローカルのファイルやディレクトリから、またはライブラリが提供する事前学習モデル構成(HuggingFaceのAWS S3リポジトリからダウンロード)からモデルを読み込むために使用できます。
|
||
|
||
[`PreTrainedModel`] と [`TFPreTrainedModel`] は、次の共通のメソッドも実装しています:
|
||
|
||
- 語彙に新しいトークンが追加された場合に、入力トークン埋め込みのリサイズを行う
|
||
- モデルのアテンションヘッドを刈り込む
|
||
|
||
各モデルに共通するその他のメソッドは、[`~modeling_utils.ModuleUtilsMixin`](PyTorchモデル用)および[`~modeling_tf_utils.TFModuleUtilsMixin`](TensorFlowモデル用)で定義されており、テキスト生成の場合、[`~generation.GenerationMixin`](PyTorchモデル用)、[`~generation.TFGenerationMixin`](TensorFlowモデル用)、および[`~generation.FlaxGenerationMixin`](Flax/JAXモデル用)もあります。
|
||
|
||
|
||
## PreTrainedModel
|
||
|
||
[[autodoc]] PreTrainedModel
|
||
- push_to_hub
|
||
- all
|
||
|
||
<a id='from_pretrained-torch-dtype'></a>
|
||
|
||
|
||
### 大規模モデルの読み込み
|
||
|
||
Transformers 4.20.0では、[`~PreTrainedModel.from_pretrained`] メソッドが再設計され、[Accelerate](https://huggingface.co/docs/accelerate/big_modeling) を使用して大規模モデルを扱うことが可能になりました。これには Accelerate >= 0.9.0 と PyTorch >= 1.9.0 が必要です。以前の方法でフルモデルを作成し、その後事前学習の重みを読み込む代わりに(これにはメモリ内のモデルサイズが2倍必要で、ランダムに初期化されたモデル用と重み用の2つが必要でした)、モデルを空の外殻として作成し、事前学習の重みが読み込まれるときにパラメーターを実体化するオプションが追加されました。
|
||
|
||
このオプションは `low_cpu_mem_usage=True` で有効にできます。モデルはまず空の重みを持つメタデバイス上に作成され、その後状態辞書が内部に読み込まれます(シャードされたチェックポイントの場合、シャードごとに読み込まれます)。この方法で使用される最大RAMは、モデルの完全なサイズだけです。
|
||
|
||
|
||
```py
|
||
from transformers import AutoModelForSeq2SeqLM
|
||
|
||
t0pp = AutoModelForSeq2SeqLM.from_pretrained("bigscience/T0pp", low_cpu_mem_usage=True)
|
||
```
|
||
|
||
さらに、モデルが完全にRAMに収まらない場合(現時点では推論のみ有効)、異なるデバイスにモデルを直接配置できます。`device_map="auto"` を使用すると、Accelerateは各レイヤーをどのデバイスに配置するかを決定し、最速のデバイス(GPU)を最大限に活用し、残りの部分をCPU、あるいはGPU RAMが不足している場合はハードドライブにオフロードします。モデルが複数のデバイスに分割されていても、通常どおり実行されます。
|
||
|
||
`device_map` を渡す際、`low_cpu_mem_usage` は自動的に `True` に設定されるため、それを指定する必要はありません。
|
||
|
||
|
||
```py
|
||
from transformers import AutoModelForSeq2SeqLM
|
||
|
||
t0pp = AutoModelForSeq2SeqLM.from_pretrained("bigscience/T0pp", device_map="auto")
|
||
```
|
||
|
||
モデルがデバイス間でどのように分割されたかは、その `hf_device_map` 属性を見ることで確認できます:
|
||
|
||
```py
|
||
t0pp.hf_device_map
|
||
```
|
||
|
||
```python out
|
||
{'shared': 0,
|
||
'decoder.embed_tokens': 0,
|
||
'encoder': 0,
|
||
'decoder.block.0': 0,
|
||
'decoder.block.1': 1,
|
||
'decoder.block.2': 1,
|
||
'decoder.block.3': 1,
|
||
'decoder.block.4': 1,
|
||
'decoder.block.5': 1,
|
||
'decoder.block.6': 1,
|
||
'decoder.block.7': 1,
|
||
'decoder.block.8': 1,
|
||
'decoder.block.9': 1,
|
||
'decoder.block.10': 1,
|
||
'decoder.block.11': 1,
|
||
'decoder.block.12': 1,
|
||
'decoder.block.13': 1,
|
||
'decoder.block.14': 1,
|
||
'decoder.block.15': 1,
|
||
'decoder.block.16': 1,
|
||
'decoder.block.17': 1,
|
||
'decoder.block.18': 1,
|
||
'decoder.block.19': 1,
|
||
'decoder.block.20': 1,
|
||
'decoder.block.21': 1,
|
||
'decoder.block.22': 'cpu',
|
||
'decoder.block.23': 'cpu',
|
||
'decoder.final_layer_norm': 'cpu',
|
||
'decoder.dropout': 'cpu',
|
||
'lm_head': 'cpu'}
|
||
```
|
||
|
||
同じフォーマットに従って、独自のデバイスマップを作成することもできます(レイヤー名からデバイスへの辞書です)。モデルのすべてのパラメータを指定されたデバイスにマップする必要がありますが、1つのレイヤーが完全に同じデバイスにある場合、そのレイヤーのサブモジュールのすべてがどこに行くかの詳細を示す必要はありません。例えば、次のデバイスマップはT0ppに適しています(GPUメモリがある場合):
|
||
|
||
```python
|
||
device_map = {"shared": 0, "encoder": 0, "decoder": 1, "lm_head": 1}
|
||
```
|
||
|
||
モデルのメモリへの影響を最小限に抑えるもう 1 つの方法は、低精度の dtype (`torch.float16` など) でモデルをインスタンス化するか、以下で説明する直接量子化手法を使用することです。
|
||
|
||
### Model Instantiation dtype
|
||
|
||
Pytorch では、モデルは通常 `torch.float32` 形式でインスタンス化されます。これは、しようとすると問題になる可能性があります
|
||
重みが fp16 にあるモデルをロードすると、2 倍のメモリが必要になるためです。この制限を克服するには、次のことができます。
|
||
`torch_dtype` 引数を使用して、目的の `dtype` を明示的に渡します。
|
||
|
||
```python
|
||
model = T5ForConditionalGeneration.from_pretrained("t5", torch_dtype=torch.float16)
|
||
```
|
||
または、モデルを常に最適なメモリ パターンでロードしたい場合は、特別な値 `"auto"` を使用できます。
|
||
そして、`dtype` はモデルの重みから自動的に導出されます。
|
||
|
||
```python
|
||
model = T5ForConditionalGeneration.from_pretrained("t5", torch_dtype="auto")
|
||
```
|
||
|
||
スクラッチからインスタンス化されたモデルには、どの `dtype` を使用するかを指示することもできます。
|
||
|
||
```python
|
||
config = T5Config.from_pretrained("t5")
|
||
model = AutoModel.from_config(config)
|
||
```
|
||
|
||
Pytorch の設計により、この機能は浮動小数点 dtype でのみ使用できます。
|
||
|
||
## ModuleUtilsMixin
|
||
|
||
[[autodoc]] modeling_utils.ModuleUtilsMixin
|
||
|
||
## TFPreTrainedModel
|
||
|
||
[[autodoc]] TFPreTrainedModel
|
||
- push_to_hub
|
||
- all
|
||
|
||
## TFModelUtilsMixin
|
||
|
||
[[autodoc]] modeling_tf_utils.TFModelUtilsMixin
|
||
|
||
## FlaxPreTrainedModel
|
||
|
||
[[autodoc]] FlaxPreTrainedModel
|
||
- push_to_hub
|
||
- all
|
||
|
||
## Pushing to the Hub
|
||
|
||
[[autodoc]] utils.PushToHubMixin
|
||
|
||
## Sharded checkpoints
|
||
|
||
[[autodoc]] modeling_utils.load_sharded_checkpoint
|