transformers/README_hd.md

473 lines
136 KiB
Markdown
Raw Normal View History

<!---
Copyright 2020 The HuggingFace Team. All rights reserved.
Licensed under the Apache License, Version 2.0 (the "License");
you may not use this file except in compliance with the License.
You may obtain a copy of the License at
http://www.apache.org/licenses/LICENSE-2.0
Unless required by applicable law or agreed to in writing, software
distributed under the License is distributed on an "AS IS" BASIS,
WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
See the License for the specific language governing permissions and
limitations under the License.
-->
<!---
A useful guide for English-Hindi translation of Hugging Face documentation
- Add space around English words and numbers when they appear between Hindi characters. E.g., рдХреБрд▓ рдорд┐рд▓рд╛рдХрд░ 100 рд╕реЗ рдЕрдзрд┐рдХ рднрд╛рд╖рд╛рдПрдБ; рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░ рд▓рд╛рдЗрдмреНрд░реЗрд░реА рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрд░рддрд╛ рд╣реИред
- рд╡рд░реНрдЧрд╛рдХрд╛рд░ рдЙрджреНрдзрд░рдгреЛрдВ рдХрд╛ рдкреНрд░рдпреЛрдЧ рдХрд░реЗрдВ, рдЬреИрд╕реЗ, "рдЙрджреНрдзрд░рдг"
Dictionary
Hugging Face: рдЧрд▓реЗ рд▓рдЧрд╛рдУ рдЪреЗрд╣рд░рд╛
token: рд╢рдмреНрдж (рдФрд░ рдореВрд▓ рдЕрдВрдЧреНрд░реЗрдЬреА рдХреЛ рдХреЛрд╖реНрдардХ рдореЗрдВ рдЪрд┐рд╣реНрдирд┐рдд рдХрд░реЗрдВя╝Й
tokenize: рдЯреЛрдХрдирдирд╛рдЗрдЬрд╝ рдХрд░реЗрдВ (рдФрд░ рдореВрд▓ рдЕрдВрдЧреНрд░реЗрдЬрд╝реА рдХреЛ рдЪрд┐рд╣реНрдирд┐рдд рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рдХреЛрд╖реНрдардХ рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрд░реЗрдВ)
tokenizer: Tokenizer (рдореВрд▓ рдЕрдВрдЧреНрд░реЗрдЬреА рдореЗрдВ рдХреЛрд╖реНрдардХ рдХреЗ рд╕рд╛рде)
transformer: transformer
pipeline: рд╕рдордиреБрдХреНрд░рдо
API: API (рдЕрдиреБрд╡рд╛рдж рдХреЗ рдмрд┐рдирд╛)
inference: рд╡рд┐рдЪрд╛рд░
Trainer: рдкреНрд░рд╢рд┐рдХреНрд╖рдХред рдХрдХреНрд╖рд╛ рдХреЗ рдирд╛рдо рдХреЗ рд░реВрдк рдореЗрдВ рдкреНрд░рд╕реНрддреБрдд рдХрд┐рдП рдЬрд╛рдиреЗ рдкрд░ рдЕрдиреБрд╡рд╛рджрд┐рдд рдирд╣реАрдВ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
pretrained/pretrain: рдкреВрд░реНрд╡ рдкреНрд░рд╢рд┐рдХреНрд╖рдг
finetune: рдлрд╝рд╛рдЗрди рдЯреНрдпреВрдирд┐рдВрдЧ
community: рд╕рдореБрджрд╛рдп
example: рдЬрдм рд╡рд┐рд╢рд┐рд╖реНрдЯ рдЧреЛрджрд╛рдо example рдХреИрдЯрд▓реЙрдЧ рдХрд░рддреЗ рд╕рдордп "рдХреЗрд╕ рдХреЗрд╕" рдХреЗ рд░реВрдк рдореЗрдВ рдЕрдиреБрд╡рд╛рджрд┐рдд
Python data structures (e.g., list, set, dict): рдореВрд▓ рдЕрдВрдЧреНрд░реЗрдЬреА рдХреЛ рдЪрд┐рд╣реНрдирд┐рдд рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рд╕реВрдЪрд┐рдпреЛрдВ, рд╕реЗрдЯреЛрдВ, рд╢рдмреНрджрдХреЛрд╢реЛрдВ рдореЗрдВ рдЕрдиреБрд╡рд╛рдж рдХрд░реЗрдВ рдФрд░ рдХреЛрд╖реНрдардХ рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрд░реЗрдВ
NLP/Natural Language Processing: рджреНрд╡рд╛рд░рд╛ NLP рдЕрдиреБрд╡рд╛рдж рдХреЗ рдмрд┐рдирд╛ рдкреНрд░рдХрдЯ рд╣реЛрддреЗ рд╣реИрдВ Natural Language Processing рдкреНрд░рд╕реНрддреБрдд рдХрд┐рдП рдЬрд╛рдиреЗ рдкрд░ рдкреНрд░рд╛рдХреГрддрд┐рдХ рднрд╛рд╖рд╛ рд╕рдВрд╕рд╛рдзрди рдореЗрдВ рдЕрдиреБрд╡рд╛рдж рдХрд░реЗрдВ
checkpoint: рдЬрд╛рдБрдЪ рдмрд┐рдВрджреБ
-->
<p align="center">
<br>
<img src="https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/transformers_logo_name.png" width="400"/>
<br>
<p>
<p align="center">
<a href="https://circleci.com/gh/huggingface/transformers">
<img alt="Build" src="https://img.shields.io/circleci/build/github/huggingface/transformers/main">
</a>
<a href="https://github.com/huggingface/transformers/blob/main/LICENSE">
<img alt="GitHub" src="https://img.shields.io/github/license/huggingface/transformers.svg?color=blue">
</a>
<a href="https://huggingface.co/docs/transformers/index">
<img alt="Documentation" src="https://img.shields.io/website/http/huggingface.co/docs/transformers/index.svg?down_color=red&down_message=offline&up_message=online">
</a>
<a href="https://github.com/huggingface/transformers/releases">
<img alt="GitHub release" src="https://img.shields.io/github/release/huggingface/transformers.svg">
</a>
<a href="https://github.com/huggingface/transformers/blob/main/CODE_OF_CONDUCT.md">
<img alt="Contributor Covenant" src="https://img.shields.io/badge/Contributor%20Covenant-v2.0%20adopted-ff69b4.svg">
</a>
<a href="https://zenodo.org/badge/latestdoi/155220641"><img src="https://zenodo.org/badge/155220641.svg" alt="DOI"></a>
</p>
<h4 align="center">
<p>
<a href="https://github.com/huggingface/transformers/">English</a> |
<a href="https://github.com/huggingface/transformers/blob/main/README_zh-hans.md">чоАф╜Уф╕нцЦЗ</a> |
<a href="https://github.com/huggingface/transformers/blob/main/README_zh-hant.md">ч╣БщлФф╕нцЦЗ</a> |
<a href="https://github.com/huggingface/transformers/blob/main/README_ko.md">эХЬъ╡ньЦ┤</a> |
<a href="https://github.com/huggingface/transformers/blob/main/README_es.md">Espa├▒ol</a> |
<a href="https://github.com/huggingface/transformers/blob/main/README_ja.md">цЧецЬмшкЮ</a> |
<b>рд╣рд┐рдиреНрджреА</b> |
<p>
</h4>
<h3 align="center">
<p>Jax, PyTorch рдФрд░ TensorFlow рдХреЗ рд▓рд┐рдП рдЙрдиреНрдирдд рдорд╢реАрди рд▓рд░реНрдирд┐рдВрдЧ</p>
</h3>
<h3 align="center">
<a href="https://hf.co/course"><img src="https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/course_banner.png"></a>
</h3>
ЁЯдЧ Transformers 100 рд╕реЗ рдЕрдзрд┐рдХ рднрд╛рд╖рд╛рдУрдВ рдореЗрдВ рдкрд╛рда рд╡рд░реНрдЧреАрдХрд░рдг, рд╕реВрдЪрдирд╛ рдирд┐рд╖реНрдХрд░реНрд╖рдг, рдкреНрд░рд╢реНрди рдЙрддреНрддрд░, рд╕рд╛рд░рд╛рдВрд╢реАрдХрд░рдг, рдЕрдиреБрд╡рд╛рдж, рдкрд╛рда рдирд┐рд░реНрдорд╛рдг рдХрд╛ рд╕рдорд░реНрдерди рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рд╣рдЬрд╛рд░реЛрдВ рдкреВрд░реНрд╡-рдкреНрд░рд╢рд┐рдХреНрд╖рд┐рдд рдореЙрдбрд▓ рдкреНрд░рджрд╛рди рдХрд░рддрд╛ рд╣реИред рдЗрд╕рдХрд╛ рдЙрджреНрджреЗрд╢реНрдп рд╕рдмрд╕реЗ рдЙрдиреНрдирдд рдПрдирдПрд▓рдкреА рддрдХрдиреАрдХ рдХреЛ рд╕рднреА рдХреЗ рд▓рд┐рдП рд╕реБрд▓рдн рдмрдирд╛рдирд╛ рд╣реИред
ЁЯдЧ Transformers рддреНрд╡рд░рд┐рдд рдбрд╛рдЙрдирд▓реЛрдб рдФрд░ рдЙрдкрдпреЛрдЧ рдХреЗ рд▓рд┐рдП рдПрдХ рдПрдкреАрдЖрдИ рдкреНрд░рджрд╛рди рдХрд░рддрд╛ рд╣реИ, рдЬрд┐рд╕рд╕реЗ рдЖрдк рдХрд┐рд╕реА рджрд┐рдП рдЧрдП рдкрд╛рда рдкрд░ рдПрдХ рдкреВрд░реНрд╡-рдкреНрд░рд╢рд┐рдХреНрд╖рд┐рдд рдореЙрдбрд▓ рд▓реЗ рд╕рдХрддреЗ рд╣реИрдВ, рдЗрд╕реЗ рдЕрдкрдиреЗ рдбреЗрдЯрд╛рд╕реЗрдЯ рдкрд░ рдареАрдХ рдХрд░ рд╕рдХрддреЗ рд╣реИрдВ рдФрд░ рдЗрд╕реЗ [рдореЙрдбрд▓ рд╣рдм] (https://huggingface.co/models) рдХреЗ рдорд╛рдзреНрдпрдо рд╕реЗ рд╕рдореБрджрд╛рдп рдХреЗ рд╕рд╛рде рд╕рд╛рдЭрд╛ рдХрд░ рд╕рдХрддреЗ рд╣реИрдВред ) . рдЗрд╕реА рд╕рдордп, рдкреНрд░рддреНрдпреЗрдХ рдкрд░рд┐рднрд╛рд╖рд┐рдд рдкрд╛рдпрдерди рдореЙрдбреНрдпреВрд▓ рдкреВрд░реА рддрд░рд╣ рд╕реЗ рд╕реНрд╡рддрдВрддреНрд░ рд╣реИ, рдЬреЛ рд╕рдВрд╢реЛрдзрди рдФрд░ рддреЗрдЬреА рд╕реЗ рдЕрдиреБрд╕рдВрдзрд╛рди рдкреНрд░рдпреЛрдЧреЛрдВ рдХреЗ рд▓рд┐рдП рд╕реБрд╡рд┐рдзрд╛рдЬрдирдХ рд╣реИред
ЁЯдЧ Transformers рддреАрди рд╕рдмрд╕реЗ рд▓реЛрдХрдкреНрд░рд┐рдп рдЧрд╣рди рд╢рд┐рдХреНрд╖рдг рдкреБрд╕реНрддрдХрд╛рд▓рдпреЛрдВ рдХрд╛ рд╕рдорд░реНрдерди рдХрд░рддрд╛ рд╣реИя╝Ъ [Jax](https://jax.readthedocs.io/en/latest/), [PyTorch](https://pytorch.org/) and [TensorFlow](https://www.tensorflow.org/) тАФ рдФрд░ рдЗрд╕рдХреЗ рд╕рд╛рде рдирд┐рд░реНрдмрд╛рдз рд░реВрдк рд╕реЗ рдПрдХреАрдХреГрдд рд╣реЛрддрд╛ рд╣реИред рдЖрдк рдЕрдкрдиреЗ рдореЙрдбрд▓ рдХреЛ рд╕реАрдзреЗ рдПрдХ рдврд╛рдВрдЪреЗ рдХреЗ рд╕рд╛рде рдкреНрд░рд╢рд┐рдХреНрд╖рд┐рдд рдХрд░ рд╕рдХрддреЗ рд╣реИрдВ рдФрд░ рджреВрд╕рд░реЗ рдХреЗ рд╕рд╛рде рд▓реЛрдб рдФрд░ рдЕрдиреБрдорд╛рди рд▓рдЧрд╛ рд╕рдХрддреЗ рд╣реИрдВред
## рдСрдирд▓рд╛рдЗрди рдбреЗрдореЛ
рдЖрдк рд╕рдмрд╕реЗ рд╕реАрдзреЗ рдореЙрдбрд▓ рдкреГрд╖реНрда рдкрд░ рдкрд░реАрдХреНрд╖рдг рдХрд░ рд╕рдХрддреЗ рд╣реИрдВ [model hub](https://huggingface.co/models) рдореЙрдбрд▓ рдкрд░ред рд╣рдо [рдирд┐рдЬреА рдореЙрдбрд▓ рд╣реЛрд╕реНрдЯрд┐рдВрдЧ, рдореЙрдбрд▓ рд╕рдВрд╕реНрдХрд░рдг, рдФрд░ рдЕрдиреБрдорд╛рди рдПрдкреАрдЖрдИ] рднреА рдкреНрд░рджрд╛рди рдХрд░рддреЗ рд╣реИрдВред(https://huggingface.co/pricing)уАВ
рдпрд╣рд╛рдБ рдХреБрдЫ рдЙрджрд╛рд╣рд░рдг рд╣реИрдВя╝Ъ
- [рд╢рдмреНрдж рдХреЛ рднрд░рдиреЗ рдХреЗ рд▓рд┐рдП рдорд╛рд╕реНрдХ рдХреЗ рд░реВрдк рдореЗрдВ BERT рдХрд╛ рдкреНрд░рдпреЛрдЧ рдХрд░реЗрдВ](https://huggingface.co/bert-base-uncased?text=Paris+is+the+%5BMASK%5D+of+France)
- [рдЗрд▓реЗрдХреНрдЯреНрд░рд╛ рдХреЗ рд╕рд╛рде рдирд╛рдорд┐рдд рдЗрдХрд╛рдИ рдкрд╣рдЪрд╛рди](https://huggingface.co/dbmdz/electra-large-discriminator-finetuned-conll03-english?text=My+name+is+Sarah+and+I+live+in+London+city)
- [рдЬреАрдкреАрдЯреА-2 рдХреЗ рд╕рд╛рде рдЯреЗрдХреНрд╕реНрдЯ рдЬрдирд░реЗрд╢рди](https://huggingface.co/gpt2?text=A+long+time+ago%2C+)
- [рд░реЙрдмрд░реНрдЯрд╛ рдХреЗ рд╕рд╛рде рдкреНрд░рд╛рдХреГрддрд┐рдХ рднрд╛рд╖рд╛ рдирд┐рд╖реНрдХрд░реНрд╖](https://huggingface.co/roberta-large-mnli?text=The+dog+was+lost.+Nobody+lost+any+animal)
- [рдмрд╛рд░реНрдЯ рдХреЗ рд╕рд╛рде рдкрд╛рда рд╕рд╛рд░рд╛рдВрд╢](https://huggingface.co/facebook/bart-large-cnn?text=The+tower+is+324+metres+%281%2C063+ft%29+tall%2C+about+the+same+height+as+an+81-storey+building%2C+and+the+tallest+structure+in+Paris.+Its+base+is+square%2C+measuring+125+metres+%28410+ft%29+on+each+side.+During+its+construction%2C+the+Eiffel+Tower+surpassed+the+Washington+Monument+to+become+the+tallest+man-made+structure+in+the+world%2C+a+title+it+held+for+41+years+until+the+Chrysler+Building+in+New+York+City+was+finished+in+1930.+It+was+the+first+structure+to+reach+a+height+of+300+metres.+Due+to+the+addition+of+a+broadcasting+aerial+at+the+top+of+the+tower+in+1957%2C+it+is+now+taller+than+the+Chrysler+Building+by+5.2+metres+%2817+ft%29.+Excluding+transmitters%2C+the+Eiffel+Tower+is+the+second+tallest+free-standing+structure+in+France+after+the+Millau+Viaduct)
- [рдбрд┐рд╕реНрдЯрд┐рд▓рдмрд░реНрдЯ рдХреЗ рд╕рд╛рде рдкреНрд░рд╢реНрдиреЛрддреНрддрд░](https://huggingface.co/distilbert-base-uncased-distilled-squad?text=Which+name+is+also+used+to+describe+the+Amazon+rainforest+in+English%3F&context=The+Amazon+rainforest+%28Portuguese%3A+Floresta+Amaz%C3%B4nica+or+Amaz%C3%B4nia%3B+Spanish%3A+Selva+Amaz%C3%B3nica%2C+Amazon%C3%ADa+or+usually+Amazonia%3B+French%3A+For%C3%AAt+amazonienne%3B+Dutch%3A+Amazoneregenwoud%29%2C+also+known+in+English+as+Amazonia+or+the+Amazon+Jungle%2C+is+a+moist+broadleaf+forest+that+covers+most+of+the+Amazon+basin+of+South+America.+This+basin+encompasses+7%2C000%2C000+square+kilometres+%282%2C700%2C000+sq+mi%29%2C+of+which+5%2C500%2C000+square+kilometres+%282%2C100%2C000+sq+mi%29+are+covered+by+the+rainforest.+This+region+includes+territory+belonging+to+nine+nations.+The+majority+of+the+forest+is+contained+within+Brazil%2C+with+60%25+of+the+rainforest%2C+followed+by+Peru+with+13%25%2C+Colombia+with+10%25%2C+and+with+minor+amounts+in+Venezuela%2C+Ecuador%2C+Bolivia%2C+Guyana%2C+Suriname+and+French+Guiana.+States+or+departments+in+four+nations+contain+%22Amazonas%22+in+their+names.+The+Amazon+represents+over+half+of+the+planet%27s+remaining+rainforests%2C+and+comprises+the+largest+and+most+biodiverse+tract+of+tropical+rainforest+in+the+world%2C+with+an+estimated+390+billion+individual+trees+divided+into+16%2C000+species)
- [рдЕрдиреБрд╡рд╛рдж рдХреЗ рд▓рд┐рдП T5 рдХрд╛ рдкреНрд░рдпреЛрдЧ рдХрд░реЗрдВ](https://huggingface.co/t5-base?text=My+name+is+Wolfgang+and+I+live+in+Berlin)
**[Write With Transformer](https://transformer.huggingface.co)**я╝Мрд╣рдЧрд┐рдВрдЧ рдлреЗрд╕ рдЯреАрдо рджреНрд╡рд╛рд░рд╛ рдмрдирд╛рдпрд╛ рдЧрдпрд╛, рдпрд╣ рдПрдХ рдЖрдзрд┐рдХрд╛рд░рд┐рдХ рдкрд╛рда рдкреАрдврд╝реА рд╣реИ demoуАВ
## рдпрджрд┐ рдЖрдк рд╣рдЧрд┐рдВрдЧ рдлреЗрд╕ рдЯреАрдо рд╕реЗ рдмреАрд╕реНрдкреЛрдХ рд╕рдорд░реНрдерди рдХреА рддрд▓рд╛рд╢ рдХрд░ рд░рд╣реЗ рд╣реИрдВ
<a target="_blank" href="https://huggingface.co/support">
<img alt="HuggingFace Expert Acceleration Program" src="https://huggingface.co/front/thumbnails/support.png" style="max-width: 600px; border: 1px solid #eee; border-radius: 4px; box-shadow: 0 1px 2px 0 rgba(0, 0, 0, 0.05);">
</a><br>
## рдЬрд▓реНрджреА рд╢реБрд░реВ рдХрд░реЗрдВ
рд╣рдо рддреНрд╡рд░рд┐рдд рдЙрдкрдпреЛрдЧ рдХреЗ рд▓рд┐рдП рдореЙрдбрд▓ рдкреНрд░рджрд╛рди рдХрд░рддреЗ рд╣реИрдВ `pipeline` (рдкрд╛рдЗрдкрд▓рд╛рдЗрди) рдПрдкреАрдЖрдИред рдкрд╛рдЗрдкрд▓рд╛рдЗрди рдкреВрд░реНрд╡-рдкреНрд░рд╢рд┐рдХреНрд╖рд┐рдд рдореЙрдбрд▓ рдФрд░ рд╕рдВрдмрдВрдзрд┐рдд рдкрд╛рда рдкреНрд░реАрдкреНрд░реЛрд╕реЗрд╕рд┐рдВрдЧ рдХреЛ рдПрдХрддреНрд░рд┐рдд рдХрд░рддреА рд╣реИред рд╕рдХрд╛рд░рд╛рддреНрдордХ рдФрд░ рдирдХрд╛рд░рд╛рддреНрдордХ рднрд╛рд╡рдирд╛ рдХреЛ рдирд┐рд░реНрдзрд╛рд░рд┐рдд рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рдкрд╛рдЗрдкрд▓рд╛рдЗрдиреЛрдВ рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрд░рдиреЗ рдХрд╛ рдПрдХ рддреНрд╡рд░рд┐рдд рдЙрджрд╛рд╣рд░рдг рдпрд╣рд╛рдВ рджрд┐рдпрд╛ рдЧрдпрд╛ рд╣реИ:
```python
>>> from transformers import pipeline
# рднрд╛рд╡рдирд╛ рд╡рд┐рд╢реНрд▓реЗрд╖рдг рдкрд╛рдЗрдкрд▓рд╛рдЗрди рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрд░рдирд╛
>>> classifier = pipeline('sentiment-analysis')
>>> classifier('We are very happy to introduce pipeline to the transformers repository.')
[{'label': 'POSITIVE', 'score': 0.9996980428695679}]
```
рдХреЛрдб рдХреА рджреВрд╕рд░реА рдкрдВрдХреНрддрд┐ рдкрд╛рдЗрдкрд▓рд╛рдЗрди рджреНрд╡рд╛рд░рд╛ рдЙрдкрдпреЛрдЧ рдХрд┐рдП рдЧрдП рдкреВрд░реНрд╡-рдкреНрд░рд╢рд┐рдХреНрд╖рд┐рдд рдореЙрдбрд▓ рдХреЛ рдбрд╛рдЙрдирд▓реЛрдб рдФрд░ рдХреИрд╢ рдХрд░рддреА рд╣реИ, рдЬрдмрдХрд┐ рдХреЛрдб рдХреА рддреАрд╕рд░реА рдкрдВрдХреНрддрд┐ рджрд┐рдП рдЧрдП рдкрд╛рда рдкрд░ рдореВрд▓реНрдпрд╛рдВрдХрди рдХрд░рддреА рд╣реИред рдпрд╣рд╛рдВ рдЙрддреНрддрд░ 99 рдЖрддреНрдорд╡рд┐рд╢реНрд╡рд╛рд╕ рдХреЗ рд╕реНрддрд░ рдХреЗ рд╕рд╛рде "рд╕рдХрд╛рд░рд╛рддреНрдордХ" рд╣реИред
рдХрдИ рдПрдирдПрд▓рдкреА рдХрд╛рд░реНрдпреЛрдВ рдореЗрдВ рдЖрдЙрдЯ рдСреЮ рдж рдмреЙрдХреНрд╕ рдкрд╛рдЗрдкрд▓рд╛рдЗрдиреЛрдВ рдХрд╛ рдкреВрд░реНрд╡-рдкреНрд░рд╢рд┐рдХреНрд╖рдг рд╣реЛрддрд╛ рд╣реИред рдЙрджрд╛рд╣рд░рдг рдХреЗ рд▓рд┐рдП, рд╣рдо рдХрд┐рд╕реА рджрд┐рдП рдЧрдП рдкрд╛рда рд╕реЗ рдХрд┐рд╕реА рдкреНрд░рд╢реНрди рдХрд╛ рдЙрддреНрддрд░ рдЖрд╕рд╛рдиреА рд╕реЗ рдирд┐рдХрд╛рд▓ рд╕рдХрддреЗ рд╣реИрдВ:
``` python
>>> from transformers import pipeline
# рдкреНрд░рд╢реНрдиреЛрддреНрддрд░ рдкрд╛рдЗрдкрд▓рд╛рдЗрди рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрд░рдирд╛
>>> question_answerer = pipeline('question-answering')
>>> question_answerer({
... 'question': 'What is the name of the repository ?',
... 'context': 'Pipeline has been included in the huggingface/transformers repository'
... })
{'score': 0.30970096588134766, 'start': 34, 'end': 58, 'answer': 'huggingface/transformers'}
```
рдЙрддреНрддрд░ рджреЗрдиреЗ рдХреЗ рдЕрд▓рд╛рд╡рд╛, рдкреВрд░реНрд╡-рдкреНрд░рд╢рд┐рдХреНрд╖рд┐рдд рдореЙрдбрд▓ рд╕рдВрдЧрдд рдЖрддреНрдорд╡рд┐рд╢реНрд╡рд╛рд╕ рд╕реНрдХреЛрд░ рднреА рджреЗрддрд╛ рд╣реИ, рдЬрд╣рд╛рдВ рдЙрддреНрддрд░ рдЯреЛрдХрдирдпреБрдХреНрдд рдкрд╛рда рдореЗрдВ рд╢реБрд░реВ рдФрд░ рд╕рдорд╛рдкреНрдд рд╣реЛрддрд╛ рд╣реИред рдЖрдк [рдЗрд╕ рдЯреНрдпреВрдЯреЛрд░рд┐рдпрд▓](https://huggingface.co/docs/transformers/task_summary) рд╕реЗ рдкрд╛рдЗрдкрд▓рд╛рдЗрди рдПрдкреАрдЖрдИ рджреНрд╡рд╛рд░рд╛ рд╕рдорд░реНрдерд┐рдд рдХрд╛рд░реНрдпреЛрдВ рдХреЗ рдмрд╛рд░реЗ рдореЗрдВ рдЕрдзрд┐рдХ рдЬрд╛рди рд╕рдХрддреЗ рд╣реИрдВред
рдЕрдкрдиреЗ рдХрд╛рд░реНрдп рдкрд░ рдХрд┐рд╕реА рднреА рдкреВрд░реНрд╡-рдкреНрд░рд╢рд┐рдХреНрд╖рд┐рдд рдореЙрдбрд▓ рдХреЛ рдбрд╛рдЙрдирд▓реЛрдб рдХрд░рдирд╛ рдФрд░ рдЙрд╕рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрд░рдирд╛ рднреА рдХреЛрдб рдХреА рддреАрди рдкрдВрдХреНрддрд┐рдпреЛрдВ рдХреА рддрд░рд╣ рд╕рд░рд▓ рд╣реИред рдпрд╣рд╛рдБ PyTorch рд╕рдВрд╕реНрдХрд░рдг рдХреЗ рд▓рд┐рдП рдПрдХ рдЙрджрд╛рд╣рд░рдг рджрд┐рдпрд╛ рдЧрдпрд╛ рд╣реИ:
```python
>>> from transformers import AutoTokenizer, AutoModel
>>> tokenizer = AutoTokenizer.from_pretrained("bert-base-uncased")
>>> model = AutoModel.from_pretrained("bert-base-uncased")
>>> inputs = tokenizer("Hello world!", return_tensors="pt")
>>> outputs = model(**inputs)
```
рдпрд╣рд╛рдБ рд╕рдордХрдХреНрд╖ рд╣реИ TensorFlow рдХреЛрдб:
```python
>>> from transformers import AutoTokenizer, TFAutoModel
>>> tokenizer = AutoTokenizer.from_pretrained("bert-base-uncased")
>>> model = TFAutoModel.from_pretrained("bert-base-uncased")
>>> inputs = tokenizer("Hello world!", return_tensors="tf")
>>> outputs = model(**inputs)
```
рдЯреЛрдХрдирдирд╛рдЗрдЬрд╝рд░ рд╕рднреА рдкреВрд░реНрд╡-рдкреНрд░рд╢рд┐рдХреНрд╖рд┐рдд рдореЙрдбрд▓реЛрдВ рдХреЗ рд▓рд┐рдП рдкреНрд░реАрдкреНрд░реЛрд╕реЗрд╕рд┐рдВрдЧ рдкреНрд░рджрд╛рди рдХрд░рддрд╛ рд╣реИ рдФрд░ рдЗрд╕реЗ рд╕реАрдзреЗ рдПрдХ рд╕реНрдЯреНрд░рд┐рдВрдЧ (рдЬреИрд╕реЗ рдКрдкрд░ рджрд┐рдП рдЧрдП рдЙрджрд╛рд╣рд░рдг) рдпрд╛ рдХрд┐рд╕реА рд╕реВрдЪреА рдкрд░ рдмреБрд▓рд╛рдпрд╛ рдЬрд╛ рд╕рдХрддрд╛ рд╣реИред рдпрд╣ рдПрдХ рдбрд┐рдХреНрд╢рдирд░реА (рддрд╛рдирд╛рд╢рд╛рд╣реА) рдХреЛ рдЖрдЙрдЯрдкреБрдЯ рдХрд░рддрд╛ рд╣реИ рдЬрд┐рд╕реЗ рдЖрдк рдбрд╛рдЙрдирд╕реНрдЯреНрд░реАрдо рдХреЛрдб рдореЗрдВ рдЙрдкрдпреЛрдЧ рдХрд░ рд╕рдХрддреЗ рд╣реИрдВ рдпрд╛ `**` рдЕрдирдкреИрдХрд┐рдВрдЧ рдПрдХреНрд╕рдкреНрд░реЗрд╢рди рдХреЗ рдорд╛рдзреНрдпрдо рд╕реЗ рд╕реАрдзреЗ рдореЙрдбрд▓ рдХреЛ рдкрд╛рд╕ рдХрд░ рд╕рдХрддреЗ рд╣реИрдВред
рдореЙрдбрд▓ рд╕реНрд╡рдпрдВ рдПрдХ рдирд┐рдпрдорд┐рдд [Pytorch `nn.Module`](https://pytorch.org/docs/stable/nn.html#torch.nn.Module) рдпрд╛ [TensorFlow `tf.keras.Model`](https ://pytorch.org/docs/stable/nn.html#torch.nn.Module) ://www.tensorflow.org/api_docs/python/tf/keras/Model) (рдЖрдкрдХреЗ рдмреИрдХрдПрдВрдб рдХреЗ рдЖрдзрд╛рд░ рдкрд░), рдЬреЛ рд╣реЛ рд╕рдХрддрд╛ рд╣реИ рд╕рд╛рдорд╛рдиреНрдп рддрд░реАрдХреЗ рд╕реЗ рдЙрдкрдпреЛрдЧ рдХрд┐рдпрд╛ рдЬрд╛рддрд╛ рд╣реИред [рдпрд╣ рдЯреНрдпреВрдЯреЛрд░рд┐рдпрд▓](https://huggingface.co/transformers/training.html) рдмрддрд╛рддрд╛ рд╣реИ рдХрд┐ рдЗрд╕ рддрд░рд╣ рдХреЗ рдореЙрдбрд▓ рдХреЛ рдХреНрд▓рд╛рд╕рд┐рдХ PyTorch рдпрд╛ TensorFlow рдкреНрд░рд╢рд┐рдХреНрд╖рдг рд▓реВрдк рдореЗрдВ рдХреИрд╕реЗ рдПрдХреАрдХреГрдд рдХрд┐рдпрд╛ рдЬрд╛рдП, рдпрд╛ рд╣рдорд╛рд░реЗ `рдЯреНрд░реЗрдирд░` рдПрдкреАрдЖрдИ рдХрд╛ рдЙрдкрдпреЛрдЧ рдХреИрд╕реЗ рдХрд░реЗрдВ рддрд╛рдХрд┐ рдЗрд╕реЗ рдЬрд▓реНрджреА рд╕реЗ рдлрд╝рд╛рдЗрди рдЯреНрдпреВрди рдХрд┐рдпрд╛ рдЬрд╛ рд╕рдХреЗредрдПрдХ рдирдпрд╛ рдбреЗрдЯрд╛рд╕реЗрдЯ рдкреЗред
## рдЯреНрд░рд╛рдВрд╕рдлрд╛рд░реНрдорд░ рдХрд╛ рдЙрдкрдпреЛрдЧ рдХреНрдпреЛрдВ рдХрд░реЗрдВ?
1. рдЙрдкрдпреЛрдЧ рдореЗрдВ рдЖрд╕рд╛рдиреА рдХреЗ рд▓рд┐рдП рдЙрдиреНрдирдд рдореЙрдбрд▓:
- рдПрдирдПрд▓рдпреВ рдФрд░ рдПрдирдПрд▓рдЬреА рдкрд░ рдмреЗрд╣рддрд░ рдкреНрд░рджрд░реНрд╢рди
- рдкреНрд░рд╡реЗрд╢ рдХреЗ рд▓рд┐рдП рдХрдо рдмрд╛рдзрд╛рдУрдВ рдХреЗ рд╕рд╛рде рд╢рд┐рдХреНрд╖рдг рдФрд░ рдЕрднреНрдпрд╛рд╕ рдХреЗ рдЕрдиреБрдХреВрд▓
- рдЙрдкрдпреЛрдЧрдХрд░реНрддрд╛-рд╕рд╛рдордирд╛ рдХрд░рдиреЗ рд╡рд╛рд▓реЗ рд╕рд╛рд░ рддрддреНрд╡, рдХреЗрд╡рд▓ рддреАрди рд╡рд░реНрдЧреЛрдВ рдХреЛ рдЬрд╛рдирдиреЗ рдХреА рдЬрд░реВрд░рдд рд╣реИ
- рд╕рднреА рдореЙрдбрд▓реЛрдВ рдХреЗ рд▓рд┐рдП рдПрдХреАрдХреГрдд рдПрдкреАрдЖрдИ
1. рдХрдо рдХрдореНрдкреНрдпреВрдЯреЗрд╢рдирд▓ рдУрд╡рд░рд╣реЗрдб рдФрд░ рдХрдо рдХрд╛рд░реНрдмрди рдЙрддреНрд╕рд░реНрдЬрди:
- рд╢реЛрдзрдХрд░реНрддрд╛ рд╣рд░ рдмрд╛рд░ рдирдП рд╕рд┐рд░реЗ рд╕реЗ рдкреНрд░рд╢рд┐рдХреНрд╖рдг рджреЗрдиреЗ рдХреЗ рдмрдЬрд╛рдп рдкреНрд░рд╢рд┐рдХреНрд╖рд┐рдд рдореЙрдбрд▓ рд╕рд╛рдЭрд╛ рдХрд░ рд╕рдХрддреЗ рд╣реИрдВ
- рдЗрдВрдЬреАрдирд┐рдпрд░ рдЧрдгрдирд╛ рд╕рдордп рдФрд░ рдЙрддреНрдкрд╛рджрди рдУрд╡рд░рд╣реЗрдб рдХреЛ рдХрдо рдХрд░ рд╕рдХрддреЗ рд╣реИрдВ
- рджрд░реНрдЬрдиреЛрдВ рдореЙрдбрд▓ рдЖрд░реНрдХрд┐рдЯреЗрдХреНрдЪрд░, 2,000 рд╕реЗ рдЕрдзрд┐рдХ рдкреВрд░реНрд╡-рдкреНрд░рд╢рд┐рдХреНрд╖рд┐рдд рдореЙрдбрд▓, 100 рд╕реЗ рдЕрдзрд┐рдХ рднрд╛рд╖рд╛рдУрдВ рдХрд╛ рд╕рдорд░реНрдерди
1.рдореЙрдбрд▓ рдЬреАрд╡рдирдЪрдХреНрд░ рдХреЗ рд╣рд░ рд╣рд┐рд╕реНрд╕реЗ рдХреЛ рд╢рд╛рдорд┐рд▓ рдХрд░рддрд╛ рд╣реИ:
- рдХреЛрдб рдХреА рдХреЗрд╡рд▓ 3 рдкрдВрдХреНрддрд┐рдпреЛрдВ рдореЗрдВ рдЙрдиреНрдирдд рдореЙрдбрд▓реЛрдВ рдХреЛ рдкреНрд░рд╢рд┐рдХреНрд╖рд┐рдд рдХрд░реЗрдВ
- рдореЙрдбрд▓ рдХреЛ рдордирдорд╛рдиреЗ рдврдВрдЧ рд╕реЗ рд╡рд┐рднрд┐рдиреНрди рдбреАрдк рд▓рд░реНрдирд┐рдВрдЧ рдлреНрд░реЗрдорд╡рд░реНрдХ рдХреЗ рдмреАрдЪ рд╕реНрдерд╛рдирд╛рдВрддрд░рд┐рдд рдХрд┐рдпрд╛ рдЬрд╛ рд╕рдХрддрд╛ рд╣реИ, рдЬреИрд╕рд╛ рдЖрдк рдЪрд╛рд╣рддреЗ рд╣реИрдВ
- рдирд┐рд░реНрдмрд╛рдз рд░реВрдк рд╕реЗ рдкреНрд░рд╢рд┐рдХреНрд╖рдг, рдореВрд▓реНрдпрд╛рдВрдХрди рдФрд░ рдЙрддреНрдкрд╛рджрди рдХреЗ рд▓рд┐рдП рд╕рдмрд╕реЗ рдЙрдкрдпреБрдХреНрдд рдврд╛рдВрдЪрд╛ рдЪреБрдиреЗрдВ
1. рдЖрд╕рд╛рдиреА рд╕реЗ рдЕрдирдиреНрдп рдореЙрдбрд▓ рдХреЛ рдЕрдиреБрдХреВрд▓рд┐рдд рдХрд░реЗрдВ рдФрд░ рдЕрдкрдиреА рдЖрд╡рд╢реНрдпрдХрддрд╛рдУрдВ рдХреЗ рд▓рд┐рдП рдорд╛рдорд▓реЛрдВ рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрд░реЗрдВ:
- рд╣рдо рдореВрд▓ рдкреЗрдкрд░ рдкрд░рд┐рдгрд╛рдореЛрдВ рдХреЛ рдкреБрди: рдкреЗрд╢ рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рдкреНрд░рддреНрдпреЗрдХ рдореЙрдбрд▓ рдЖрд░реНрдХрд┐рдЯреЗрдХреНрдЪрд░ рдХреЗ рд▓рд┐рдП рдХрдИ рдЙрдкрдпреЛрдЧ рдХреЗ рдорд╛рдорд▓реЗ рдкреНрд░рджрд╛рди рдХрд░рддреЗ рд╣реИрдВ
- рдореЙрдбрд▓ рдХреА рдЖрдВрддрд░рд┐рдХ рд╕рдВрд░рдЪрдирд╛ рдкрд╛рд░рджрд░реНрд╢реА рдФрд░ рд╕реБрд╕рдВрдЧрдд рд░рд╣рддреА рд╣реИ
- рдореЙрдбрд▓ рдлрд╝рд╛рдЗрд▓ рдХреЛ рдЕрд▓рдЧ рд╕реЗ рдЗрд╕реНрддреЗрдорд╛рд▓ рдХрд┐рдпрд╛ рдЬрд╛ рд╕рдХрддрд╛ рд╣реИ, рдЬреЛ рд╕рдВрд╢реЛрдзрди рдФрд░ рддреНрд╡рд░рд┐рдд рдкреНрд░рдпреЛрдЧ рдХреЗ рд▓рд┐рдП рд╕реБрд╡рд┐рдзрд╛рдЬрдирдХ рд╣реИ
## рдореБрдЭреЗ рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░ рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрдм рдирд╣реАрдВ рдХрд░рдирд╛ рдЪрд╛рд╣рд┐рдП?
- рдпрд╣ рд▓рд╛рдЗрдмреНрд░реЗрд░реА рдореЙрдбреНрдпреВрд▓рд░ рдиреНрдпреВрд░рд▓ рдиреЗрдЯрд╡рд░реНрдХ рдЯреВрд▓рдмреЙрдХреНрд╕ рдирд╣реАрдВ рд╣реИред рдореЙрдбрд▓ рдлрд╝рд╛рдЗрд▓ рдореЗрдВ рдХреЛрдб рдЬрд╛рдирдмреВрдЭрдХрд░ рдЕрд▓реНрдкрд╡рд┐рдХрд╕рд┐рдд рд╣реИ, рдмрд┐рдирд╛ рдЕрддрд┐рд░рд┐рдХреНрдд рд╕рд╛рд░ рдЗрдирдХреИрдкреНрд╕реБрд▓реЗрд╢рди рдХреЗ, рддрд╛рдХрд┐ рд╢реЛрдзрдХрд░реНрддрд╛ рдЕрдореВрд░реНрддрддрд╛ рдФрд░ рдлрд╝рд╛рдЗрд▓ рдЬрдВрдкрд┐рдВрдЧ рдореЗрдВ рд╢рд╛рдорд┐рд▓ рд╣реБрдП рдЬрд▓реНрджреА рд╕реЗ рдкреБрдирд░рд╛рд╡реГрддрд┐ рдХрд░ рд╕рдХреЗрдВред
- `рдЯреНрд░реЗрдирд░` рдПрдкреАрдЖрдИ рдХрд┐рд╕реА рднреА рдореЙрдбрд▓ рдХреЗ рд╕рд╛рде рд╕рдВрдЧрдд рдирд╣реАрдВ рд╣реИ, рдпрд╣ рдХреЗрд╡рд▓ рдЗрд╕ рдкреБрд╕реНрддрдХрд╛рд▓рдп рдХреЗ рдореЙрдбрд▓ рдХреЗ рд▓рд┐рдП рдЕрдиреБрдХреВрд▓рд┐рдд рд╣реИред рдпрджрд┐ рдЖрдк рд╕рд╛рдорд╛рдиреНрдп рдорд╢реАрди рд▓рд░реНрдирд┐рдВрдЧ рдХреЗ рд▓рд┐рдП рдЙрдкрдпреБрдХреНрдд рдкреНрд░рд╢рд┐рдХреНрд╖рдг рд▓реВрдк рдХрд╛рд░реНрдпрд╛рдиреНрд╡рдпрди рдХреА рддрд▓рд╛рд╢ рдореЗрдВ рд╣реИрдВ, рддреЛ рдХрд╣реАрдВ рдФрд░ рджреЗрдЦреЗрдВред
- рд╣рдорд╛рд░реЗ рд╕рд░реНрд╡реЛрддреНрддрдо рдкреНрд░рдпрд╛рд╕реЛрдВ рдХреЗ рдмрд╛рд╡рдЬреВрдж, [рдЙрджрд╛рд╣рд░рдг рдирд┐рд░реНрджреЗрд╢рд┐рдХрд╛] (https://github.com/huggingface/transformers/tree/main/examples) рдореЗрдВ рд╕реНрдХреНрд░рд┐рдкреНрдЯ рдХреЗрд╡рд▓ рдЙрдкрдпреЛрдЧ рдХреЗ рдорд╛рдорд▓реЗ рд╣реИрдВред рдЖрдкрдХреА рд╡рд┐рд╢рд┐рд╖реНрдЯ рд╕рдорд╕реНрдпрд╛ рдХреЗ рд▓рд┐рдП, рд╡реЗ рдЬрд░реВрд░реА рдирд╣реАрдВ рдХрд┐ рдмреЙрдХреНрд╕ рд╕реЗ рдмрд╛рд╣рд░ рдХрд╛рдо рдХрд░реЗрдВ, рдФрд░ рдЖрдкрдХреЛ рдХреЛрдб рдХреА рдХреБрдЫ рдкрдВрдХреНрддрд┐рдпреЛрдВ рдХреЛ рд╕реВрдЯ рдХрд░рдиреЗ рдХреА рдЖрд╡рд╢реНрдпрдХрддрд╛ рд╣реЛ рд╕рдХрддреА рд╣реИред
## рд╕реНрдерд╛рдкрд┐рдд рдХрд░рдирд╛
### рдкрд┐рдк рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрд░рдирд╛
рдЗрд╕ рд░рд┐рдкреЙрдЬрд┐рдЯрд░реА рдХрд╛ рдкрд░реАрдХреНрд╖рдг Python 3.6+, Flax 0.3.2+, PyTorch 1.3.1+ рдФрд░ TensorFlow 2.3+ рдХреЗ рддрд╣рдд рдХрд┐рдпрд╛ рдЧрдпрд╛ рд╣реИред
рдЖрдк [рд╡рд░реНрдЪреБрдЕрд▓ рдПрдирд╡рд╛рдпрд░рдирдореЗрдВрдЯ] (https://docs.python.org/3/library/venv.html) рдореЗрдВ ЁЯдЧ рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░ рдЗрдВрд╕реНрдЯреЙрд▓ рдХрд░ рд╕рдХрддреЗ рд╣реИрдВред рдпрджрд┐ рдЖрдк рдЕрднреА рддрдХ рдкрд╛рдпрдерди рдХреЗ рд╡рд░реНрдЪреБрдЕрд▓ рдПрдирд╡рд╛рдпрд░рдирдореЗрдВрдЯ рд╕реЗ рдкрд░рд┐рдЪрд┐рдд рдирд╣реАрдВ рд╣реИрдВ, рддреЛ рдХреГрдкрдпрд╛ рдЗрд╕реЗ [рдЙрдкрдпреЛрдЧрдХрд░реНрддрд╛ рдирд┐рд░реНрджреЗрд╢] (https://packaging.python.org/guides/installing-using-pip-and-virtual-environments/) рдкрдврд╝реЗрдВред
рд╕рдмрд╕реЗ рдкрд╣рд▓реЗ, рдкрд╛рдпрдерди рдХреЗ рдЙрд╕ рд╕рдВрд╕реНрдХрд░рдг рдХреЗ рд╕рд╛рде рдПрдХ рдЖрднрд╛рд╕реА рд╡рд╛рддрд╛рд╡рд░рдг рдмрдирд╛рдПрдВ рдЬрд┐рд╕рдХрд╛ рдЖрдк рдЙрдкрдпреЛрдЧ рдХрд░рдиреЗ рдФрд░ рдЙрд╕реЗ рд╕рдХреНрд░рд┐рдп рдХрд░рдиреЗ рдХреА рдпреЛрдЬрдирд╛ рдмрдирд╛ рд░рд╣реЗ рд╣реИрдВред
рдлрд┐рд░, рдЖрдкрдХреЛ Flax, PyTorch рдпрд╛ TensorFlow рдореЗрдВ рд╕реЗ рдХрд┐рд╕реА рдПрдХ рдХреЛ рд╕реНрдерд╛рдкрд┐рдд рдХрд░рдиреЗ рдХреА рдЖрд╡рд╢реНрдпрдХрддрд╛ рд╣реИред рдЕрдкрдиреЗ рдкреНрд▓реЗрдЯрдлрд╝реЙрд░реНрдо рдкрд░ рдЗрди рдлрд╝реНрд░реЗрдорд╡рд░реНрдХ рдХреЛ рд╕реНрдерд╛рдкрд┐рдд рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП, [TensorFlow рд╕реНрдерд╛рдкрдирд╛ рдкреГрд╖реНрда](https://www.tensorflow.org/install/), [PyTorch рд╕реНрдерд╛рдкрдирд╛ рдкреГрд╖реНрда](https://pytorch.org/get-started /locally/# рджреЗрдЦреЗрдВ) start-locally) рдпрд╛ [Flax рд╕реНрдерд╛рдкрдирд╛ рдкреГрд╖реНрда](https://github.com/google/flax#quick-install).
рдЬрдм рдЗрдирдореЗрдВ рд╕реЗ рдХреЛрдИ рдПрдХ рдмреИрдХрдПрдВрдб рд╕рдлрд▓рддрд╛рдкреВрд░реНрд╡рдХ рд╕реНрдерд╛рдкрд┐рдд рд╣реЛ рдЬрд╛рддрд╛ рд╣реИ, рддреЛ рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░ рдирд┐рдореНрдирд╛рдиреБрд╕рд╛рд░ рд╕реНрдерд╛рдкрд┐рдд рдХрд┐рдП рдЬрд╛ рд╕рдХрддреЗ рд╣реИрдВ:
```bash
pip install transformers
```
рдпрджрд┐ рдЖрдк рдЙрдкрдпреЛрдЧ рдХреЗ рдорд╛рдорд▓реЛрдВ рдХреЛ рдЖрдЬрд╝рдорд╛рдирд╛ рдЪрд╛рд╣рддреЗ рд╣реИрдВ рдпрд╛ рдЖрдзрд┐рдХрд╛рд░рд┐рдХ рд░рд┐рд▓реАрдЬрд╝ рд╕реЗ рдкрд╣рд▓реЗ рдирд╡реАрдирддрдо рдЗрди-рдбреЗрд╡рд▓рдкрдореЗрдВрдЯ рдХреЛрдб рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрд░рдирд╛ рдЪрд╛рд╣рддреЗ рд╣реИрдВ, рддреЛ рдЖрдкрдХреЛ [рд╕реЛрд░реНрд╕ рд╕реЗ рдЗрдВрд╕реНрдЯреЙрд▓ рдХрд░рдирд╛ рд╣реЛрдЧрд╛](https://huggingface.co/docs/transformers/installation#installing-from- рд╕реНрд░реЛрдд)ред
### рдХреЛрдВрдбрд╛ рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрд░рдирд╛
рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░ рд╕рдВрд╕реНрдХрд░рдг 4.0.0 рдХреЗ рдмрд╛рдж рд╕реЗ, рд╣рдорд╛рд░реЗ рдкрд╛рд╕ рдПрдХ рдХреЛрдВрдбрд╛ рдЪреИрдирд▓ рд╣реИ: `рд╣рдЧрд┐рдВрдЧрдлреЗрд╕`ред
рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░ рдХреЛрдВрдбрд╛ рдХреЗ рдорд╛рдзреНрдпрдо рд╕реЗ рдирд┐рдореНрдирд╛рдиреБрд╕рд╛рд░ рд╕реНрдерд╛рдкрд┐рдд рдХрд┐рдпрд╛ рдЬрд╛ рд╕рдХрддрд╛ рд╣реИ:
```shell script
conda install -c huggingface transformers
```
рдХреЛрдВрдбрд╛ рдХреЗ рдорд╛рдзреНрдпрдо рд╕реЗ Flax, PyTorch, рдпрд╛ TensorFlow рдореЗрдВ рд╕реЗ рдХрд┐рд╕реА рдПрдХ рдХреЛ рд╕реНрдерд╛рдкрд┐рдд рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП, рдирд┐рд░реНрджреЗрд╢реЛрдВ рдХреЗ рд▓рд┐рдП рдЙрдирдХреЗ рд╕рдВрдмрдВрдзрд┐рдд рд╕реНрдерд╛рдкрдирд╛ рдкреГрд╖реНрда рджреЗрдЦреЗрдВред
## рдореЙрдбрд▓ рдЖрд░реНрдХрд┐рдЯреЗрдХреНрдЪрд░
[рдЙрдкрдпреЛрдЧрдХрд░реНрддрд╛](https://huggingface.co/users) рдФрд░ [organization](https://huggingface.co) рджреНрд╡рд╛рд░рд╛ рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░ рд╕рдорд░реНрдерд┐рдд [**рд╕рднреА рдореЙрдбрд▓ рдЪреМрдХрд┐рдпреЛрдВ**](https://huggingface.co/models) /users) рд╣рдЧрд┐рдВрдЧрдлреЗрд╕.рдХреЛ/рдСрд░реНрдЧрдирд╛рдЗрдЬреЗрд╢рди), рд╕рднреА рдХреЛ рдмрд┐рдирд╛ рдХрд┐рд╕реА рдмрд╛рдзрд╛ рдХреЗ рд╣рдЧрд┐рдВрдЧрдлреЗрд╕.рдХреЛ [рдореЙрдбрд▓ рд╣рдм](https://huggingface.co) рдХреЗ рд╕рд╛рде рдПрдХреАрдХреГрдд рдХрд┐рдпрд╛ рдЧрдпрд╛ рд╣реИред
рдЪреМрдХрд┐рдпреЛрдВ рдХреА рд╡рд░реНрддрдорд╛рди рд╕рдВрдЦреНрдпрд╛: ![](https://img.shields.io/endpoint?url=https://huggingface.co/api/shields/models&color=brightgreen)
ЁЯдЧ рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░ рд╡рд░реНрддрдорд╛рди рдореЗрдВ рдирд┐рдореНрдирд▓рд┐рдЦрд┐рдд рдЖрд░реНрдХрд┐рдЯреЗрдХреНрдЪрд░ рдХрд╛ рд╕рдорд░реНрдерди рдХрд░рддреЗ рд╣реИрдВ (рдореЙрдбрд▓ рдХреЗ рдЕрд╡рд▓реЛрдХрди рдХреЗ рд▓рд┐рдП [рдпрд╣рд╛рдВ] рджреЗрдЦреЗрдВ (https://huggingface.co/docs/transformers/model_summary))я╝Ъ
1. **[ALBERT](https://huggingface.co/docs/transformers/model_doc/albert)** (Google Research and the Toyota Technological Institute at Chicago) рд╕рд╛рде рдереАрд╕рд┐рд╕ [ALBERT: A Lite BERT for Self-supervised рднрд╛рд╖рд╛ рдкреНрд░рддрд┐рдирд┐рдзрд┐рддреНрд╡ рд╕реАрдЦрдирд╛](https://arxiv.org/abs/1909.11942), рдЭреЗрдВрдЭреЛрдВрдЧ рд▓реИрди, рдорд┐рдВрдЧрджрд╛ рдЪреЗрди, рд╕реЗрдмреЗрд╕реНрдЯрд┐рдпрди рдЧреБрдбрдореИрди, рдХреЗрд╡рд┐рди рдЧрд┐рдореНрдкреЗрд▓, рдкреАрдпреВрд╖ рд╢рд░реНрдорд╛, рд░рд╛рдбреВ рд╕реЛрд░рд┐рдХрдЯ
2023-03-15 01:49:10 +08:00
1. **[ALIGN](https://huggingface.co/docs/transformers/model_doc/align)** (Google Research рд╕реЗ) Chao Jia, Yinfei Yang, Ye Xia, Yi-Ting Chen, Zarana Parekh, Hieu Pham, Quoc V. Le, Yunhsuan Sung, Zhen Li, Tom Duerig. рджреНрд╡рд╛рд░рд╛рдЕрдиреБрд╕рдВрдзрд╛рди рдкрддреНрд░ [Scaling Up Visual and Vision-Language Representation Learning With Noisy Text Supervision](https://arxiv.org/abs/2102.05918) рдХреЗ рд╕рд╛рде рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЧрдпрд╛
1. **[AltCLIP](https://huggingface.co/docs/transformers/model_doc/altclip)** (from BAAI) released with the paper [AltCLIP: Altering the Language Encoder in CLIP for Extended Language Capabilities](https://arxiv.org/abs/2211.06679) by Chen, Zhongzhi and Liu, Guang and Zhang, Bo-Wen and Ye, Fulong and Yang, Qinghong and Wu, Ledell.
1. **[Audio Spectrogram Transformer](https://huggingface.co/docs/transformers/model_doc/audio-spectrogram-transformer)** (from MIT) released with the paper [AST: Audio Spectrogram Transformer](https://arxiv.org/abs/2104.01778) by Yuan Gong, Yu-An Chung, James Glass.
1. **[BART](https://huggingface.co/docs/transformers/model_doc/bart)** (рдлреЗрд╕рдмреБрдХ) рд╕рд╛рде рдереАрд╕рд┐рд╕ [рдмрд╛рд░реНрдЯ: рдкреНрд░рд╛рдХреГрддрд┐рдХ рднрд╛рд╖рд╛ рдирд┐рд░реНрдорд╛рдг, рдЕрдиреБрд╡рд╛рдж рдХреЗ рд▓рд┐рдП рдЕрдиреБрдХреНрд░рдо-рд╕реЗ-рдЕрдиреБрдХреНрд░рдо рдкреВрд░реНрд╡ рдкреНрд░рд╢рд┐рдХреНрд╖рдг , рдФрд░ рд╕рдордЭ] (https://arxiv.org/pdf/1910.13461.pdf) рдкрд░ рдирд┐рд░реНрднрд░ рдорд╛рдЗрдХ рд▓реБрдИрд╕, рдпрд┐рдирд╣рд╛рди рд▓рд┐рдпреВ, рдирдорди рдЧреЛрдпрд▓, рдорд╛рд░реНрдЬрди рдЧрд╝рдЬрд╝рд╡рд┐рдирд┐рдиреЗрдЬрд╛рдж, рдЕрдмреНрджреЗрд▓рд░рд╣рдорд╛рди рдореЛрд╣рдореНрдордж, рдУрдорд░ рд▓реЗрд╡реА, рд╡реЗрд╕ рд╕реНрдЯреЛрдпрд╛рдиреЛрд╡ рдФрд░ рд▓реНрдпреВрдХ рдЬрд╝реЗрдЯрд▓рдореЙрдпрд░
1. **[BARThez](https://huggingface.co/docs/transformers/model_doc/barthez)** (рд╕реЗ ├Йcole polytechnique) рд╕рд╛рде рдереАрд╕рд┐рд╕ [BARThez: a Skilled Pretrained French Sequence-to-Sequence Model](https://arxiv.org/abs/2010.12321) рдкрд░ рдирд┐рд░реНрднрд░ Moussa Kamal Eddine, Antoine J.-P. Tixier, Michalis Vazirgiannis рд░рд┐рд╣рд╛рдИред
1. **[BARTpho](https://huggingface.co/docs/transformers/model_doc/bartpho)** (VinAI Research рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [BARTpho: Pre-trained Sequence-to-Sequence Models for Vietnamese](https://arxiv.org/abs/2109.09701)рдЧреБрдпреЗрди рд▓реБрдУрдВрдЧ рдЯреНрд░рд╛рди, рдбреБрдУрдВрдЧ рдорд┐рдиреНрд╣ рд▓реЗ рдФрд░ рдбрд╛рдЯ рдХреНрд╡реЛрдХ рдЧреБрдпреЗрди рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[BEiT](https://huggingface.co/docs/transformers/model_doc/beit)** (Microsoft рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдХрд╛рдЧрдЬ [BEiT: BERT рдЗрдореЗрдЬ рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░реНрд╕ рдХрд╛ рдкреНрд░реА-рдЯреНрд░реЗрдирд┐рдВрдЧ](https://arxiv.org/abs/2106.08254) Hangbo Bao, Li Dong, Furu Wei рджреНрд╡рд╛рд░рд╛ред
1. **[BERT](https://huggingface.co/docs/transformers/model_doc/bert)** (рдЧреВрдЧрд▓ рд╕реЗ) рд╕рд╛рде рд╡рд╛рд▓рд╛ рдкреЗрдкрд░ [рдмреАрдИрдЖрд░рдЯреА: рдкреНрд░реА-рдЯреНрд░реЗрдирд┐рдВрдЧ рдСрдл рдбреАрдк рдмрд┐рдбрд╛рдпрд░реЗрдХреНрд╢рдирд▓ рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░реНрд╕ рдлреЙрд░ рд▓реИрдВрдЧреНрд╡реЗрдЬ рдЕрдВрдбрд░рд╕реНрдЯреИрдВрдбрд┐рдВрдЧ](https://arxiv.org/abs/1810.04805) рдЬреИрдХрдм рдбреЗрд╡рд▓рд┐рди, рдорд┐рдВрдЧ-рд╡реЗрдИ рдЪрд╛рдВрдЧ, тАЛтАЛрдХреЗрдВрдЯрди рд▓реА рдФрд░ рдХреНрд░рд┐рд╕реНрдЯреАрдирд╛ рдЯреМрдЯрд╛рдиреЛрд╡рд╛ рджреНрд╡рд╛рд░рд╛ рдкреНрд░рдХрд╛рд╢рд┐рдд рдХрд┐рдпрд╛ рдЧрдпрд╛ рдерд╛ред .
1. **[BERT For Sequence Generation](https://huggingface.co/docs/transformers/model_doc/bert-generation)** (рдЧреВрдЧрд▓ рд╕реЗ) рд╕рд╛рде рджреЗрдиреЗ рд╡рд╛рд▓рд╛ рдкреЗрдкрд░ [рд╕реАрдХреНрд╡реЗрдВрд╕ рдЬреЗрдирд░реЗрд╢рди рдЯрд╛рд╕реНрдХ рдХреЗ рд▓рд┐рдП рдкреНрд░реА-рдЯреНрд░реЗрдВрдб рдЪреЗрдХрдкреЙрдЗрдВрдЯ рдХрд╛ рдЗрд╕реНрддреЗрдорд╛рд▓ рдХрд░рдирд╛](https ://arxiv.org/abs/1907.12461) рд╕рд╛рд╢рд╛ рд░реЛрдареЗ, рд╢рд╢рд┐ рдирд╛рд░рд╛рдпрдг, рдЕрд▓рд┐рдпрд╛рдХреНрд╕рд┐ рд╕реЗрд╡реЗрд░рд┐рди рджреНрд╡рд╛рд░рд╛ред
1. **[BERTweet](https://huggingface.co/docs/transformers/model_doc/bertweet)** (VinAI Research рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [BERTweet: рдЕрдВрдЧреНрд░реЗрдЬреА рдЯреНрд╡реАрдЯреНрд╕ рдХреЗ рд▓рд┐рдП рдПрдХ рдкреВрд░реНрд╡-рдкреНрд░рд╢рд┐рдХреНрд╖рд┐рдд рднрд╛рд╖рд╛ рдореЙрдбрд▓] (https://aclanthology.org/2020.emnlp-demos.2/) рдбрд╛рдЯ рдХреНрд╡реЛрдХ рдЧреБрдпреЗрди, рдерд╛рди рд╡реБ рдФрд░ рдЕрдиреНрд╣ рддреБрдЖрди рдЧреБрдпреЗрди рджреНрд╡рд╛рд░рд╛ рдкреНрд░рдХрд╛рд╢рд┐рддред
1. **[BigBird-Pegasus](https://huggingface.co/docs/transformers/model_doc/bigbird_pegasus)** (рдЧреВрдЧрд▓ рд░рд┐рд╕рд░реНрдЪ рд╕реЗ) рд╕рд╛рде рд╡рд╛рд▓рд╛ рдкреЗрдкрд░ [рдмрд┐рдЧ рдмрд░реНрдб: рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░реНрд╕ рдлреЙрд░ рд▓реЙрдиреНрдЧрд░ рд╕реАрдХреНрд╡реЗрдВрд╕](https://arxiv .org/abs/2007.14062) рдордВрдЬрд╝рд┐рд▓ рдЬрд╝рд╣реАрд░, рдЧреБрд░реБ рдЧреБрд░реБрдЧрдгреЗрд╢, рдЕрд╡рд┐рдирд╛рд╡рд╛ рджреБрдмреЗ, рдЬреЛрд╢реБрдЖ рдЖрдЗрдВрд╕реНрд▓реА, рдХреНрд░рд┐рд╕ рдЕрд▓реНрдмрд░реНрдЯреА, рд╕реИрдВрдЯрд┐рдпрд╛рдЧреЛ рдУрдВрдЯрд╛рдиреЛрди, рдлрд┐рд▓рд┐рдк рдлрд╛рдо, рдЕрдирд┐рд░реБрджреНрдз рд░рд╛рд╡реБрд▓рд╛, рдХрд┐рдлрд╝рд╛рди рд╡рд╛рдВрдЧ, рд▓реА рдпрд╛рдВрдЧ, рдЕрдорд░ рдЕрд╣рдордж рджреНрд╡рд╛рд░рд╛ред
1. **[BigBird-RoBERTa](https://huggingface.co/docs/transformers/model_doc/big_bird)** (рдЧреВрдЧрд▓ рд░рд┐рд╕рд░реНрдЪ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [рдмрд┐рдЧ рдмрд░реНрдб: рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░реНрд╕ рдлреЙрд░ рд▓реЙрдиреНрдЧрд░ рд╕реАрдХреНрд╡реЗрдВрд╕](https://arxiv.org/abs/2007.14062) рдордВрдЬрд╝рд┐рд▓ рдЬрд╝рд╣реАрд░, рдЧреБрд░реБ рдЧреБрд░реБрдЧрдгреЗрд╢, рдЕрд╡рд┐рдирд╛рд╡рд╛ рджреБрдмреЗ, рдЬреЛрд╢реБрдЖ рдЖрдЗрдВрд╕реНрд▓реА, рдХреНрд░рд┐рд╕ рдЕрд▓реНрдмрд░реНрдЯреА, рд╕реИрдВрдЯрд┐рдпрд╛рдЧреЛ рдУрдВрдЯрд╛рдирди, рдлрд┐рд▓рд┐рдк рдлрд╛рдо рджреНрд╡рд╛рд░рд╛ , рдЕрдирд┐рд░реБрджреНрдз рд░рд╛рд╡реБрд▓рд╛, рдХрд┐рдлрд╝рд╛рди рд╡рд╛рдВрдЧ, рд▓реА рдпрд╛рдВрдЧ, рдЕрдорд░ рдЕрд╣рдордж рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[BioGpt](https://huggingface.co/docs/transformers/model_doc/biogpt)** (from Microsoft Research AI4Science) released with the paper [BioGPT: generative pre-trained transformer for biomedical text generation and mining](https://academic.oup.com/bib/advance-article/doi/10.1093/bib/bbac409/6713511?guestAccessKey=a66d9b5d-4f83-4017-bb52-405815c907b9) by Renqian Luo, Liai Sun, Yingce Xia, Tao Qin, Sheng Zhang, Hoifung Poon and Tie-Yan Liu.
1. **[BiT](https://huggingface.co/docs/transformers/model_doc/bit)** (from Google AI) released with the paper [Big Transfer (BiT) by Alexander Kolesnikov, Lucas Beyer, Xiaohua Zhai, Joan Puigcerver, Jessica Yung, Sylvain Gelly, Neil Houlsby.
1. **[Blenderbot](https://huggingface.co/docs/transformers/model_doc/blenderbot)** (рдлреЗрд╕рдмреБрдХ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдХрд╛рдЧрдЬ [рдПрдХ рдУрдкрди-рдбреЛрдореЗрди рдЪреИрдЯрдмреЙрдЯ рдмрдирд╛рдиреЗ рдХреА рд╡рд┐рдзрд┐](https://arxiv.org /abs/2004.13637) рд╕реНрдЯреАрдлрди рд░реЛрд▓рд░, рдПрдорд┐рд▓реА рджреАрдирди, рдирдорди рдЧреЛрдпрд▓, рджрд╛ рдЬреВ, рдореИрд░реА рд╡рд┐рд▓рд┐рдпрдорд╕рди, рдпрд┐рдирд╣рд╛рди рд▓рд┐рдпреВ, рдЬрд┐рдВрдЧ рдЬреВ, рдорд╛рдпрд▓ рдУрдЯ, рдХрд░реНрдЯ рд╢рд╕реНрдЯрд░, рдПрд░рд┐рдХ рдПрдоред рд╕реНрдорд┐рде, рд╡рд╛рдИ-рд▓реИрди рдмреЙрд░реЛ, рдЬреЗрд╕рди рд╡реЗрд╕реНрдЯрди рджреНрд╡рд╛рд░рд╛ред
1. **[BlenderbotSmall](https://huggingface.co/docs/transformers/model_doc/blenderbot-small)** (рдлреЗрд╕рдмреБрдХ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [рдПрдХ рдУрдкрди-рдбреЛрдореЗрди рдЪреИрдЯрдмреЙрдЯ рдмрдирд╛рдиреЗ рдХреА рд░реЗрд╕рд┐рдкреА](https://arxiv .org/abs/2004.13637) рд╕реНрдЯреАрдлрди рд░реЛрд▓рд░, рдПрдорд┐рд▓реА рджреАрдирди, рдирдорди рдЧреЛрдпрд▓, рджрд╛ рдЬреВ, рдореИрд░реА рд╡рд┐рд▓рд┐рдпрдорд╕рди, рдпрд┐рдирд╣рд╛рди рд▓рд┐рдпреВ, рдЬрд┐рдВрдЧ рдЬреВ, рдорд╛рдпрд▓ рдУрдЯ, рдХрд░реНрдЯ рд╢рд╕реНрдЯрд░, рдПрд░рд┐рдХ рдПрдо рд╕реНрдорд┐рде, рд╡рд╛рдИ-рд▓реИрди рдмреЙрд░реЛ, рдЬреЗрд╕рди рд╡реЗрд╕реНрдЯрди рджреНрд╡рд╛рд░рд╛ред
1. **[BLIP](https://huggingface.co/docs/transformers/model_doc/blip)** (from Salesforce) released with the paper [BLIP: Bootstrapping Language-Image Pre-training for Unified Vision-Language Understanding and Generation](https://arxiv.org/abs/2201.12086) by Junnan Li, Dongxu Li, Caiming Xiong, Steven Hoi.
2023-03-15 01:49:10 +08:00
1. **[BLIP-2](https://huggingface.co/docs/transformers/model_doc/blip-2)** (Salesforce рд╕реЗ) Junnan Li, Dongxu Li, Silvio Savarese, Steven Hoi. рджреНрд╡рд╛рд░рд╛рдЕрдиреБрд╕рдВрдзрд╛рди рдкрддреНрд░ [BLIP-2: Bootstrapping Language-Image Pre-training with Frozen Image Encoders and Large Language Models](https://arxiv.org/abs/2301.12597) рдХреЗ рд╕рд╛рде рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЧрдпрд╛
1. **[BLOOM](https://huggingface.co/docs/transformers/model_doc/bloom)** (from BigScience workshop) released by the [BigSicence Workshop](https://bigscience.huggingface.co/).
1. **[BORT](https://huggingface.co/docs/transformers/model_doc/bort)** (рдПрд▓реЗрдХреНрд╕рд╛ рд╕реЗ) рдХрд╛рдЧрдЬ рдХреЗ рд╕рд╛рде [рдмреАрдИрдЖрд░рдЯреА рдХреЗ рд▓рд┐рдП рдСрдкреНрдЯрд┐рдорд▓ рд╕рдмрдЖрд░реНрдХрд┐рдЯреЗрдХреНрдЪрд░ рдПрдХреНрд╕рдЯреНрд░реИрдХреНрд╢рди](https://arxiv.org/abs/ 2010.10499) рдПрдбреНрд░рд┐рдпрди рдбреА рд╡рд┐рдВрдЯрд░ рдФрд░ рдбреИрдирд┐рдпрд▓ рдЬреЗ рдкреЗрд░реА рджреНрд╡рд╛рд░рд╛ред
2023-03-15 01:49:10 +08:00
1. **[BridgeTower](https://huggingface.co/docs/transformers/model_doc/bridgetower)** (рд╣рд░рдмрд┐рди рдЗрдВрд╕реНрдЯрд┐рдЯреНрдпреВрдЯ рдСреЮ рдЯреЗрдХреНрдиреЛрд▓реЙрдЬреА/рдорд╛рдЗрдХреНрд░реЛрд╕реЙрдлреНрдЯ рд░рд┐рд╕рд░реНрдЪ рдПрд╢рд┐рдпрд╛/рдЗрдВрдЯреЗрд▓ рд▓реИрдмреНрд╕ рд╕реЗ) рдХрд╛рдЧрдЬ рдХреЗ рд╕рд╛рде [рдмреНрд░рд┐рдЬрдЯреЙрд╡рд░: рд╡рд┐рдЬрди-рд▓реИрдВрдЧреНрд╡реЗрдЬ рд░рд┐рдкреНрд░реЗрдЬреЗрдВрдЯреЗрд╢рди рд▓рд░реНрдирд┐рдВрдЧ рдореЗрдВ рдПрдирдХреЛрдбрд░реНрд╕ рдХреЗ рдмреАрдЪ рдмреНрд░рд┐рдЬ рдмрдирд╛рдирд╛](<https://arxiv.org/abs/2206.08657>) by Xiao Xu, Chenfei Wu, Shachar Rosenman, Vasudev Lal, Wanxiang Che, Nan Duan.
1. **[ByT5](https://huggingface.co/docs/transformers/model_doc/byt5)** (Google рдЕрдиреБрд╕рдВрдзрд╛рди рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдХрд╛рдЧрдЬ [ByT5: рдкреВрд░реНрд╡-рдкреНрд░рд╢рд┐рдХреНрд╖рд┐рдд рдмрд╛рдЗрдЯ-рдЯреВ-рдмрд╛рдЗрдЯ рдореЙрдбрд▓ рдХреЗ рд╕рд╛рде рдПрдХ рдЯреЛрдХрди-рдореБрдХреНрдд рднрд╡рд┐рд╖реНрдп рдХреА рдУрд░] (https://arxiv.org/abs/2105.13626) Linting Xue, Aditya Barua, Noah Constant, рд░рд╛рдореА рдЕрд▓-рд░рдлреВ, рд╢рд░рдг рдирд╛рд░рдВрдЧ, рдорд┐рд╣рд┐рд░ рдХрд╛рд▓реЗ, рдПрдбрдо рд░реЙрдмрд░реНрдЯреНрд╕, рдХреЙрд▓рд┐рди рд░реИрдлреЗрд▓ рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[CamemBERT](https://huggingface.co/docs/transformers/model_doc/camembert)** (рдЗрдирд░рд┐рдпрд╛/рдлреЗрд╕рдмреБрдХ/рд╕реЛрд░рдмреЛрди рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдХрд╛рдЧрдЬ [CamemBERT: рдПрдХ рдЯреЗрд╕реНрдЯреА рдлреНрд░реЗрдВрдЪ рд▓реИрдВрдЧреНрд╡реЗрдЬ рдореЙрдбрд▓](https:// arxiv.org/abs/1911.03894) рд▓реБрдИ рдорд╛рд░реНрдЯрд┐рди*, рдмреЗрдВрдЬрд╛рдорд┐рди рдореБрд▓рд░*, рдкреЗрдбреНрд░реЛ рдЬреЗрд╡рд┐рдпрд░ рдСрд░реНрдЯрд┐рдЬрд╝ рд╕реБрдЖрд░реЗрдЬрд╝*, рдпреЛрдЖрди рдбреНрдпреВрдкреЙрдиреНрдЯ, рд▓реЙрд░реЗрдВрдЯ рд░реЛрдорд░реА, рдПрд░рд┐рдХ рд╡рд┐рд▓реЗрдореЛрдиреНрдЯреЗ рдбреЗ рд▓рд╛ рдХреНрд▓рд░реНрдЬрд░реА, рдЬреИрдореЗ рд╕реЗрдбрд╛рд╣ рдФрд░ рдмреЗрдиреЛрдЗрдЯ рд╕рдЧреЛрдЯ рджреНрд╡рд╛рд░рд╛ред
1. **[CANINE](https://huggingface.co/docs/transformers/model_doc/canine)** (Google рд░рд┐рд╕рд░реНрдЪ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рджрд┐рдпрд╛ рдЧрдпрд╛ рдкреЗрдкрд░ [рдХреИрдирд╛рдЗрди: рдкреНрд░реА-рдЯреНрд░реЗрдирд┐рдВрдЧ рдП рдПрдлрд┐рд╢рд┐рдПрдВрдЯ рдЯреЛрдХрдирд╛рдЗрдЬреЗрд╢рди-рдлреНрд░реА рдПрдирдХреЛрдбрд░ рдлреЙрд░ рд▓реИрдВрдЧреНрд╡реЗрдЬ рд░рд┐рдкреНрд░реЗрдЬреЗрдВрдЯреЗрд╢рди]( https://arxiv.org/abs/2103.06874) рдЬреЛрдирд╛рдерди рдПрдЪ рдХреНрд▓рд╛рд░реНрдХ, рдбреИрди рдЧреИрд░реЗрдЯ, рдпреВрд▓рд┐рдпрд╛ рдЯрд░реНрдХ, рдЬреЙрди рд╡рд┐рдПрдЯрд┐рдВрдЧ рджреНрд╡рд╛рд░рд╛ред
1. **[Chinese-CLIP](https://huggingface.co/docs/transformers/model_doc/chinese_clip)** (from OFA-Sys) released with the paper [Chinese CLIP: Contrastive Vision-Language Pretraining in Chinese](https://arxiv.org/abs/2211.01335) by An Yang, Junshu Pan, Junyang Lin, Rui Men, Yichang Zhang, Jingren Zhou, Chang Zhou.
2023-03-15 01:49:10 +08:00
1. **[CLAP](https://huggingface.co/docs/transformers/model_doc/clap)** (LAION-AI рд╕реЗ) Yusong Wu, Ke Chen, Tianyu Zhang, Yuchen Hui, Taylor Berg-Kirkpatrick, Shlomo Dubnov. рджреНрд╡рд╛рд░рд╛рдЕрдиреБрд╕рдВрдзрд╛рди рдкрддреНрд░ [Large-scale Contrastive Language-Audio Pretraining with Feature Fusion and Keyword-to-Caption Augmentation]https://arxiv.org/abs/2211.06687) рдХреЗ рд╕рд╛рде рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЧрдпрд╛
1. **[CLIP](https://huggingface.co/docs/transformers/model_doc/clip)** (OpenAI рд╕реЗ) рд╕рд╛рде рд╡рд╛рд▓рд╛ рдкреЗрдкрд░ [рд▓рд░реНрдирд┐рдВрдЧ рдЯреНрд░рд╛рдВрд╕рдлрд░реЗрдмрд▓ рд╡рд┐рдЬреБрдЕрд▓ рдореЙрдбрд▓ рдлреНрд░реЙрдо рдиреЗрдЪреБрд░рд▓ рд▓реИрдВрдЧреНрд╡реЗрдЬ рд╕реБрдкрд░рд╡рд┐рдЬрди](https://arxiv.org /abs/2103.00020) рдПрд▓реЗрдХ рд░реИрдбрдлреЛрд░реНрдб, рдЬреЛрдВрдЧ рд╡реВрдХ рдХрд┐рдо, рдХреНрд░рд┐рд╕ рд╣реИрд▓рд╛рд╕реА, рдЖрджрд┐рддреНрдп рд░рдореЗрд╢, рдЧреЗрдмреНрд░рд┐рдпрд▓ рдЧреЛрд╣, рд╕рдВрдзреНрдпрд╛ рдЕрдЧреНрд░рд╡рд╛рд▓, рдЧрд┐рд░реАрд╢ рд╢рд╛рд╕реНрддреНрд░реА, рдЕрдорд╛рдВрдбрд╛ рдПрд╕реНрдХреЗрд▓, рдкрд╛рдореЗрд▓рд╛ рдорд┐рд╢реНрдХрд┐рди, рдЬреИрдХ рдХреНрд▓рд╛рд░реНрдХ, рдЧреНрд░реЗрдЪреЗрди рдХреНрд░реБрдПрдЧрд░, рдЗрд▓реНрдпрд╛ рд╕реБрддреНрд╕реНрдХреЗрд╡рд░ рджреНрд╡рд╛рд░рд╛ред
1. **[CLIPSeg](https://huggingface.co/docs/transformers/model_doc/clipseg)** (from University of G├╢ttingen) released with the paper [Image Segmentation Using Text and Image Prompts](https://arxiv.org/abs/2112.10003) by Timo L├╝ddecke and Alexander Ecker.
1. **[CodeGen](https://huggingface.co/docs/transformers/model_doc/codegen)** (рд╕реЗрд▓реНрд╕рдлреЛрд░реНрд╕ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [рдкреНрд░реЛрдЧреНрд░рд╛рдо рд╕рд┐рдВрдереЗрд╕рд┐рд╕ рдХреЗ рд▓рд┐рдП рдПрдХ рд╕рдВрд╡рд╛рджрд╛рддреНрдордХ рдкреНрд░рддрд┐рдорд╛рди](https://arxiv.org/abs/2203.13474) рдПрд░рд┐рдХ рдирд┐рдЬрдХреИрдВрдк, рдмреЛ рдкреИрдВрдЧ, рд╣рд┐рд░реЛрдЖрдХреА рд╣рдпрд╛рд╢реА, рд▓рд┐рдлреВ рддреВ, рд╣реБрдЖрди рд╡рд╛рдВрдЧ, рдпрд┐рдВрдЧрдмреЛ рдЭреЛрдЙ, рд╕рд┐рд▓реНрд╡рд┐рдпреЛ рд╕рд╛рд╡рд░реЗрд╕, рдХреИрдорд┐рдВрдЧ рдЬрд┐рдУрдВрдЧ рд░рд┐рд▓реАрдЬред
1. **[Conditional DETR](https://huggingface.co/docs/transformers/model_doc/conditional_detr)** (рдорд╛рдЗрдХреНрд░реЛрд╕реЙрдлреНрдЯ рд░рд┐рд╕рд░реНрдЪ рдПрд╢рд┐рдпрд╛ рд╕реЗ) рдХрд╛рдЧрдЬ рдХреЗ рд╕рд╛рде [рдлрд╛рд╕реНрдЯ рдЯреНрд░реЗрдирд┐рдВрдЧ рдХрдиреНрд╡рд░реНрдЬреЗрдВрд╕ рдХреЗ рд▓рд┐рдП рд╕рд╢рд░реНрдд рдбреАрдИрдЯреАрдЖрд░](https://arxiv. org/abs/2108.06152) рдбреЗрдкреВ рдореЗрдВрдЧ, рдЬрд╝рд┐рдпрд╛рдУрдХрд╛рдВрдЧ рдЪреЗрди, рдЬрд╝реЗрдЬрд┐рдпрд╛ рдлреИрди, рдЧреИрдВрдЧ рдЬрд╝реЗрдВрдЧ, рд╣реЛрдЙрдХрд┐рдпрд╛рдВрдЧ рд▓реА, рдпреБрд╣реБрдИ рдпреБрдЖрди, рд▓реЗрдИ рд╕рди, рдЬрд┐рдВрдЧрдбреЛрдВрдЧ рд╡рд╛рдВрдЧ рджреНрд╡рд╛рд░рд╛ред
1. **[ConvBERT](https://huggingface.co/docs/transformers/model_doc/convbert)** (YituTech рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдХрд╛рдЧрдЬ [ConvBERT: рд╕реНрдкреИрди-рдЖрдзрд╛рд░рд┐рдд рдбрд╛рдпрдиреЗрдорд┐рдХ рдХрдирд╡рд▓реНрд╢рди рдХреЗ рд╕рд╛рде BERT рдореЗрдВ рд╕реБрдзрд╛рд░](https://arxiv .org/abs/2008.02496) рдЬрд┐рд╣рд╛рдВрдЧ рдЬрд┐рдпрд╛рдВрдЧ, рд╡реАрд╣рд╛рдУ рдпреВ, рдбрд╛рдХрд╛рди рдЭреЛрдЙ, рдпреБрдирдкреЗрдВрдЧ рдЪреЗрди, рдЬрд┐рдпрд╛рд╢реА рдлреЗрдВрдЧ, рд╢реБрдЗрдЪреЗрдВрдЧ рдпрд╛рди рджреНрд╡рд╛рд░рд╛ред
1. **[ConvNeXT](https://huggingface.co/docs/transformers/model_doc/convnext)** (Facebook AI рд╕реЗ) рд╕рд╛рде рд╡рд╛рд▓рд╛ рдкреЗрдкрд░ [A ConvNet for the 2020s](https://arxiv.org/abs /2201.03545) рдЬрд╝реБрдЖрдВрдЧ рд▓рд┐рдпреВ, рд╣реЗрдВрдЬрд╝реА рдорд╛рдУ, рдЪрд╛рдУ-рдпреБрдЖрди рд╡реВ, рдХреНрд░рд┐рд╕реНрдЯреЛрдлрд╝ рдлреАрдЪрдЯреЗрдирд╣реЛрдлрд╝рд░, рдЯреНрд░реЗрд╡рд░ рдбреЗрд░реЗрд▓, рд╕реИрдирд┐рдВрдЧ рдЬрд╝реА рджреНрд╡рд╛рд░рд╛ред
2023-03-15 01:49:10 +08:00
1. **[ConvNeXTV2](https://huggingface.co/docs/transformers/model_doc/convnextv2)** (from Facebook AI) released with the paper [ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders](https://arxiv.org/abs/2301.00808) by Sanghyun Woo, Shoubhik Debnath, Ronghang Hu, Xinlei Chen, Zhuang Liu, In So Kweon, Saining Xie.
1. **[CPM](https://huggingface.co/docs/transformers/model_doc/cpm)** (рд╕рд┐рдВрдШреБрдЖ рдпреВрдирд┐рд╡рд░реНрд╕рд┐рдЯреА рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [рд╕реАрдкреАрдПрдо: рдП рд▓рд╛рд░реНрдЬ-рд╕реНрдХреЗрд▓ рдЬреЗрдиреЗрд░реЗрдЯрд┐рд╡ рдЪрд╛рдЗрдиреАрдЬ рдкреНрд░реА-рдЯреНрд░реЗрдВрдб рд▓реИрдВрдЧреНрд╡реЗрдЬ рдореЙрдбрд▓](https : //arxiv.org/abs/2012.00413) рдЭреЗрдВрдЧреНрдпрд╛рди рдЭрд╛рдВрдЧ, рдЬреВ рд╣рд╛рди, рд╣рд╛рдУ рдЭреЛрдЙ, рдкреЗрдИ рдХреЗ, рдпреБрдХреНрд╕рд┐рдпрди рдЧреБ, рдбреЗрдорд┐рдВрдЧ рдпреЗ, рдпреБрдЬрд┐рдпрд╛ рдХрд┐рди, рдпреБрд╢реЗрдВрдЧ рд╕реБ, рд╣рд╛рдУрдЭреЗ рдЬреА, рдЬрд┐рдпрд╛рди рдЧреБрдЖрди, рдлреИрдВрдЪрд╛рдУ рдХреНрдпреВрдИ, рдЬрд╝рд┐рдпрд╛рдУрдЭреА рд╡рд╛рдВрдЧ, рдпрд╛рдирд╛рди рдЭреЗрдВрдЧ рджреНрд╡рд╛рд░рд╛ , рдЧреБрдУрдпрд╛рдВрдЧ рдЬрд╝реЗрдВрдЧ, рд╣реБрдЖрдирдХреА рдХрд╛рдУ, рд╢реЗрдВрдЧрдХреА рдЪреЗрди, рдбрд╛рдЗрдХреНрд╕реБрдЖрди рд▓реА, рдЬрд╝реЗрдирдмреЛ рд╕рди, рдЬрд╝рд┐рдпреБрдЖрди рд▓рд┐рдпреВ, рдорд┐рдирд▓реА рд╣реБрдЖрдВрдЧ, рд╡реЗрдВрдЯрд╛рдУ рд╣рд╛рди, рдЬреА рддрд╛рдВрдЧ, рдЬреБрдЖрдирдЬрд╝реА рд▓реА, рдЬрд╝рд┐рдпрд╛рдУрдпрд╛рди рдЭреВ, рдорд╛рдУрд╕реЛрдВрдЧ рд╕рдиред
2023-04-19 22:03:57 +08:00
1. **[CPM-Ant](https://huggingface.co/docs/transformers/model_doc/cpmant)** (from OpenBMB) released by the [OpenBMB](https://www.openbmb.org/).
1. **[CTRL](https://huggingface.co/docs/transformers/model_doc/ctrl)** (рд╕реЗрд▓реНрд╕рдлреЛрд░реНрд╕ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [CTRL: рдП рдХрдВрдбрд┐рд╢рдирд▓ рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░ рд▓реИрдВрдЧреНрд╡реЗрдЬ рдореЙрдбрд▓ рдлреЙрд░ рдХрдВрдЯреНрд░реЛрд▓реЗрдмрд▓ рдЬреЗрдирд░реЗрд╢рди](https://arxiv.org/abs/1909.05858) рдиреАрддреАрд╢ рд╢рд┐рд░реАрд╖ рдХреЗрд╕рдХрд░*, рдмреНрд░рд╛рдпрди рдореИрдХрдХреИрди*, рд▓рд╡ рдЖрд░. рд╡рд╛рд░реНрд╖реНрдгреЗрдп, рдХреИрдорд┐рдВрдЧ рдЬрд┐рдУрдВрдЧ рдФрд░ рд░рд┐рдЪрд░реНрдб рджреНрд╡рд╛рд░рд╛ рд╕реЛрдЪрд░ рджреНрд╡рд╛рд░рд╛ рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[CvT](https://huggingface.co/docs/transformers/model_doc/cvt)** (Microsoft рд╕реЗ) рд╕рд╛рде рдореЗрдВ рджрд┐рдпрд╛ рдЧрдпрд╛ рдкреЗрдкрд░ [CvT: рдЗрдВрдЯреНрд░реЛрдбреНрдпреВрд╕рд┐рдВрдЧ рдХрдирд╡реЙрд▓реНрдпреВрд╢рди рдЯреВ рд╡рд┐рдЬрди рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░реНрд╕](https://arxiv.org/ рдПрдмреНрд╕/2103.15808) рд╣реИрдкрд┐рдВрдЧ рд╡реВ, рдмрд┐рди рдЬрд┐рдУ, рдиреЛрдПрд▓ рдХреЛрдбреЗрд▓рд╛, рдореЗрдВрдЧрдЪреЗрди рд▓рд┐рдпреВ, рдЬрд┐рдпрд╛рдВрдЧ рджрд╛рдИ, рд▓реВ рдпреБрдЖрди, рд▓реЗрдИ рдЭрд╛рдВрдЧ рджреНрд╡рд╛рд░рд╛ред
1. **[Data2Vec](https://huggingface.co/docs/transformers/model_doc/data2vec)** (рдлреЗрд╕рдмреБрдХ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдХрд╛рдЧрдЬ [Data2Vec: рднрд╛рд╖рдг, рджреГрд╖реНрдЯрд┐ рдФрд░ рднрд╛рд╖рд╛ рдореЗрдВ рд╕реНрд╡-рдкрд░реНрдпрд╡реЗрдХреНрд╖рд┐рдд рд╕реАрдЦрдиреЗ рдХреЗ рд▓рд┐рдП рдПрдХ рд╕рд╛рдорд╛рдиреНрдп рдврд╛рдВрдЪрд╛] (https://arxiv.org/abs/2202.03555) рдПрд▓реЗрдХреНрд╕реА рдмрд╛рдПрд╡реНрд╕реНрдХреА, рд╡реЗрдИ-рдирд┐рдВрдЧ рд╕реВ, рдХрд┐рдпрд╛рдирдЯреЛрдВрдЧ рдЬреВ, рдЕрд░реБрдг рдмрд╛рдмреВ, рдЬрд┐рдпрд╛рддрд╛рдУ рдЧреБ, рдорд╛рдЗрдХрд▓ рдФрд▓реА рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[DeBERTa](https://huggingface.co/docs/transformers/model_doc/deberta)** (Microsoft рд╕реЗ) рд╕рд╛рде рдореЗрдВ рджрд┐рдпрд╛ рдЧрдпрд╛ рдкреЗрдкрд░ [DeBERta: рдбрд┐рдХреЛрдбрд┐рдВрдЧ-рдПрдиреНрд╣рд╛рдВрд╕реНрдб BERT рд╡рд┐рдж рдбрд┐рд╕реЗрдВрдЯреИрдВрдЧрд▓реНрдб рдЕрдЯреЗрдВрд╢рди](https://arxiv. org/abs/2006.03654) рдкреЗрдВрдЧрдЪреЗрдВрдЧ рд╣реЗ, рдЬрд╝рд┐рдпрд╛рдУрдбреЛрдВрдЧ рд▓рд┐рдпреВ, рдЬрд┐рдпрд╛рдирдлреЗрдВрдЧ рдЧрд╛рдУ, рд╡реАрдЬрд╝реВ рдЪреЗрди рджреНрд╡рд╛рд░рд╛ред
1. **[DeBERTa-v2](https://huggingface.co/docs/transformers/model_doc/deberta-v2)** (Microsoft рд╕реЗ) рд╕рд╛рде рдореЗрдВ рджрд┐рдпрд╛ рдЧрдпрд╛ рдкреЗрдкрд░ [DeBERTa: рдбрд┐рдХреЛрдбрд┐рдВрдЧ-рдПрдиреНрд╣рд╛рдВрд╕реНрдб BERT рд╡рд┐рде рдбрд┐рд╕реЗрдВрдиреНрдЧрд▓реНрдб рдЕрдЯреЗрдВрд╢рди](https: //arxiv.org/abs/2006.03654) рдкреЗрдВрдЧрдЪреЗрдВрдЧ рд╣реЗ, рдЬрд╝рд┐рдпрд╛рдУрдбреЛрдВрдЧ рд▓рд┐рдпреВ, рдЬрд┐рдпрд╛рдирдлреЗрдВрдЧ рдЧрд╛рдУ, рд╡реАрдЬрд╝реВ рдЪреЗрди рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[Decision Transformer](https://huggingface.co/docs/transformers/model_doc/decision_transformer)** (рдмрд░реНрдХрд▓реЗ/рдлреЗрд╕рдмреБрдХ/рдЧреВрдЧрд▓ рд╕реЗ) рдкреЗрдкрд░ рдХреЗ рд╕рд╛рде [рдбрд┐рд╕реАрдЬрди рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░: рд░реАрдирдлреЛрд░реНрд╕рдореЗрдВрдЯ рд▓рд░реНрдирд┐рдВрдЧ рд╡рд╛рдпрд╛ рд╕реАрдХреНрд╡реЗрдВрд╕ рдореЙрдбрд▓рд┐рдВрдЧ](https : //arxiv.org/abs/2106.01345) рд▓рд┐рд▓реА рдЪреЗрди, рдХреЗрд╡рд┐рди рд▓реВ, рдЕрд░рд╡рд┐рдВрдж рд░рд╛рдЬреЗрд╢реНрд╡рд░рди, рдХрд┐рдорд┐рди рд▓реА, рдЖрджрд┐рддреНрдп рдЧреНрд░реЛрд╡рд░, рдорд╛рдЗрдХрд▓ рд▓рд╛рд╕реНрдХрд┐рди, рдкреАрдЯрд░ рдПрдмреАрд▓, рдЕрд░рд╡рд┐рдВрдж рд╢реНрд░реАрдирд┐рд╡рд╛рд╕, рдЗрдЧреЛрд░ рдореЛрд░реНрдбрдЪ рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[Deformable DETR](https://huggingface.co/docs/transformers/model_doc/deformable_detr)** (рд╕реЗрдВрд╕рдЯрд╛рдЗрдо рд░рд┐рд╕рд░реНрдЪ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [рдбрд┐рдлреЙрд░реНрдореЗрдмрд▓ рдбреАрдИрдЯреАрдЖрд░: рдбрд┐рдлреЙрд░реНрдореЗрдмрд▓ рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░реНрд╕ рдлреЙрд░ рдПрдВрдб-рдЯреВ-рдПрдВрдб рдСрдмреНрдЬреЗрдХреНрдЯ рдбрд┐рдЯреЗрдХреНрд╢рди] (https://arxiv.org/abs/2010.04159) Xizhou Zhu, Weijie Su, Lewei Lu, Bin Li, Xiaogang Wang, рдЬрд┐рдлреЗрдВрдЧ рджрд╛рдИ рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[DeiT](https://huggingface.co/docs/transformers/model_doc/deit)** (рдлреЗрд╕рдмреБрдХ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [рдЯреНрд░реЗрдирд┐рдВрдЧ рдбреЗрдЯрд╛-рдПрдлрд┐рд╢рд┐рдПрдВрдЯ рдЗрдореЗрдЬ рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░ рдФрд░ рдбрд┐рд╕реНрдЯрд┐рд▓реЗрд╢рди рдереНрд░реВ рдЕрдЯреЗрдВрд╢рди](https://arxiv .org/abs/2012.12877) рд╣реНрдпреВрдЧреЛ рдЯреМрд╡реНрд░реЛрди, рдореИрдереНрдпреВ рдХреЙрд░реНрдб, рдореИрдерд┐рдЬреНрд╕ рдбреВрдЬрд╝, рдлрд╝реНрд░рд╛рдВрд╕рд┐рд╕реНрдХреЛ рдорд╕реНрд╕рд╛, рдПрд▓реЗрдХреНрдЬрд╝реЗрдВрдбрд░ рд╕рдмрд▓реЗрд░реЛрд▓реНрд╕, рд╣рд░реНрд╡реЗ рдЬреЗрдЧреМ рджреНрд╡рд╛рд░рд╛ред
2023-04-19 22:03:57 +08:00
1. **[DePlot](https://huggingface.co/docs/transformers/model_doc/deplot)** (Google AI рд╕реЗ) Fangyu Liu, Julian Martin Eisenschlos, Francesco Piccinno, Syrine Krichene, Chenxi Pang, Kenton Lee, Mandar Joshi, Wenhu Chen, Nigel Collier, Yasemin Altun. рджреНрд╡рд╛рд░рд╛рдЕрдиреБрд╕рдВрдзрд╛рди рдкрддреНрд░ [DePlot: One-shot visual language reasoning by plot-to-table translation](https://arxiv.org/abs/2212.10505) рдХреЗ рд╕рд╛рде рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЧрдпрд╛
2023-03-15 01:49:10 +08:00
1. **[DETA](https://huggingface.co/docs/transformers/model_doc/deta)** (from The University of Texas at Austin) released with the paper [NMS Strikes Back](https://arxiv.org/abs/2212.06137) by Jeffrey Ouyang-Zhang, Jang Hyun Cho, Xingyi Zhou, Philipp Kr├дhenb├╝hl.
1. **[DETR](https://huggingface.co/docs/transformers/model_doc/detr)** (рдлреЗрд╕рдмреБрдХ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдХрд╛рдЧрдЬ [рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░реНрд╕ рдХреЗ рд╕рд╛рде рдПрдВрдб-рдЯреВ-рдПрдВрдб рдСрдмреНрдЬреЗрдХреНрдЯ рдбрд┐рдЯреЗрдХреНрд╢рди](https://arxiv. org/abs/2005.12872) рдирд┐рдХреЛрд▓рд╕ рдХреИрд░рд┐рдпрди, рдлрд╝реНрд░рд╛рдВрд╕рд┐рд╕реНрдХреЛ рдорд╕реНрд╕рд╛, рдЧреЗрдмреНрд░рд┐рдпрд▓ рд╕рд┐рдиреЗрд╡, рдирд┐рдХреЛрд▓рд╕ рдЙрд╕реБрдирд┐рдпрд░, рдЕрд▓реЗрдХреНрдЬреЗрдВрдбрд░ рдХрд┐рд░рд┐рд▓реЛрд╡, рд╕рд░реНрдЧреЗрдИ рдЬрд╝рд╛рдЧреЛрд░реБрдпрдХреЛ рджреНрд╡рд╛рд░рд╛ред
1. **[DialoGPT](https://huggingface.co/docs/transformers/model_doc/dialogpt)** (рдорд╛рдЗрдХреНрд░реЛрд╕реЙрдлреНрдЯ рд░рд┐рд╕рд░реНрдЪ рд╕реЗ) рдХрд╛рдЧрдЬ рдХреЗ рд╕рд╛рде [DialoGPT: рдмрдбрд╝реЗ рдкреИрдорд╛рдиреЗ рдкрд░ рдЬрдирд░реЗрдЯрд┐рд╡ рдкреНрд░реА-рдЯреНрд░реЗрдирд┐рдВрдЧ рдлреЙрд░ рдХрдиреНрд╡рд░реНрд╕реЗрд╢рдирд▓ рд░рд┐рд╕реНрдкрд╛рдВрд╕ рдЬреЗрдирд░реЗрд╢рди](https ://arxiv.org/abs/1911.00536) рдпрд┐рдЬрд╝реЗ рдЭрд╛рдВрдЧ, рд╕рд┐рдХреА рд╕рди, рдорд┐рд╢реЗрд▓ рдЧреИрд▓реА, рдпреЗрди-рдЪреБрди рдЪреЗрди, рдХреНрд░рд┐рд╕ рдмреНрд░реЛрдХреЗрдЯ, рдЬрд┐рдпрд╛рдВрдЧ рдЧрд╛рдУ, рдЬрд┐рдпрд╛рдирдлреЗрдВрдЧ рдЧрд╛рдУ, рдЬрд┐рдВрдЧрдЬрд┐рдВрдЧ рд▓рд┐рдпреВ, рдмрд┐рд▓ рдбреЛрд▓рди рджреНрд╡рд╛рд░рд╛ред
1. **[DiNAT](https://huggingface.co/docs/transformers/model_doc/dinat)** (from SHI Labs) released with the paper [Dilated Neighborhood Attention Transformer](https://arxiv.org/abs/2209.15001) by Ali Hassani and Humphrey Shi.
1. **[DistilBERT](https://huggingface.co/docs/transformers/model_doc/distilbert)** (рд╣рдЧрд┐рдВрдЧрдлреЗрд╕ рд╕реЗ), рд╕рд╛рде рдореЗрдВ рдХрд╛рдЧрдЬ [рдбрд┐рд╕реНрдЯрд┐рд▓рдмрд░реНрдЯ, рдмреАрдИрдЖрд░рдЯреА рдХрд╛ рдбрд┐рд╕реНрдЯрд┐рд▓реНрдб рд╡рд░реНрдЬрди: рдЫреЛрдЯрд╛, рддреЗрдЬ, рд╕рд╕реНрддрд╛ рдФрд░ рд╣рд▓реНрдХрд╛] (https://arxiv.org/abs/1910.01108) рд╡рд┐рдХреНрдЯрд░ рд╕рдирд╣, рд▓рд┐рд╕рд╛рдВрдбреНрд░реЗ рдбреЗрдмреНрдпреВ рдФрд░ рдереЙрдорд╕ рд╡реБрд▓реНрдл рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред рдпрд╣реА рддрд░реАрдХрд╛ GPT-2 рдХреЛ [DistilGPT2](https://github.com/huggingface/transformers/tree/main/examples/distillation), RoBERta рд╕реЗ [DistilRoBERta](https://github.com) рдкрд░ рдХрдВрдкреНрд░реЗрд╕ рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рднреА рд▓рд╛рдЧреВ рдХрд┐рдпрд╛ рдЬрд╛рддрд╛ рд╣реИред / рд╣рдЧрд┐рдВрдЧрдлреЗрд╕/рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░реНрд╕/рдЯреНрд░реА/рдореЗрди/рдЙрджрд╛рд╣рд░рдг/рдбрд┐рд╕реНрдЯрд┐рд▓реЗрд╢рди), рдмрд╣реБрднрд╛рд╖реА BERT рд╕реЗ [DistilmBERT](https://github.com/huggingface/transformers/tree/main/examples/distillation) рдФрд░ рдбрд┐рд╕реНрдЯрд┐рд▓рдмрд░реНрдЯ рдХрд╛ рдЬрд░реНрдорди рд╕рдВрд╕реНрдХрд░рдгред
1. **[DiT](https://huggingface.co/docs/transformers/model_doc/dit)** (рдорд╛рдЗрдХреНрд░реЛрд╕реЙрдлреНрдЯ рд░рд┐рд╕рд░реНрдЪ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [DiT: рд╕реЗрд▓реНрдл рд╕реБрдкрд░рд╡рд╛рдЗрдЬреНрдб рдкреНрд░реА-рдЯреНрд░реЗрдирд┐рдВрдЧ рдлреЙрд░ рдбреЙрдХреНрдпреВрдореЗрдВрдЯ рдЗрдореЗрдЬ рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░](https://arxiv.org/abs/2203.02378) рдЬреБрдирд▓реЙрдиреНрдЧ рд▓реА, рдпрд┐рд╣реЗрдВрдЧ рдЬреВ, рдЯреЗрдВрдЧрдЪрд╛рдУ рд▓рд╡, рд▓реЗрдИ рдХреБрдИ, рдЪрд╛ рдЭрд╛рдВрдЧ рджреНрд╡рд╛рд░рд╛ рдлреБрд░реБ рд╡реЗрдИ рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[Donut](https://huggingface.co/docs/transformers/model_doc/donut)** (NAVER рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдХрд╛рдЧрдЬ [OCR-рдореБрдХреНрдд рдбреЙрдХреНрдпреВрдореЗрдВрдЯ рдЕрдВрдбрд░рд╕реНрдЯреИрдВрдбрд┐рдВрдЧ рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░](https://arxiv.org/abs /2111.15664) рдЧреАрд╡реВрдХ рдХрд┐рдо, рдЯреАрдХрдЧреНрдпреВ рд╣реЛрдВрдЧ, рдореВрдирдмрд┐рди рдпрд┐рдо, рдЬрд┐рдпреЛрдВрдЧреНрдпреЛрди рдирд╛рдо, рдЬрд┐рдирдпреЙрдиреНрдЧ рдкрд╛рд░реНрдХ, рдЬрд┐рдирдпреЙрдиреНрдЧ рдпрд┐рдо, рд╡реЛрдирд╕реЗрдУрдХ рд╣реНрд╡рд╛рдВрдЧ, рд╕рд╛рдВрдЧрдбреВ рдпреВрдВ, рдбреЛрдВрдЧрдпреВрди рд╣рд╛рди, рд╕реЗрдЙрдВрдЧреНрдпреБрди рдкрд╛рд░реНрдХ рджреНрд╡рд╛рд░рд╛ред
1. **[DPR](https://huggingface.co/docs/transformers/model_doc/dpr)** (рдлреЗрд╕рдмреБрдХ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [рдУрдкрди-рдбреЛрдореЗрди рдХреНрд╡реЗрд╢реНрдЪрди рдЖрдВрд╕рд░рд┐рдВрдЧ рдХреЗ рд▓рд┐рдП рдбреЗрдВрд╕ рдкреИрд╕реЗрдЬ рд░рд┐рдЯреНрд░реАрд╡рд▓](https://arxiv. org/abs/2004.04906) рд╡реНрд▓рд╛рджрд┐рдореАрд░ рдХрд░рдкреБрдЦрд┐рди, рдмрд░рд▓рд╛рд╕ рдУрдЬрд╝реБрдЬрд╝, рд╕реЗрд╡рди рдорд┐рди, рдкреИрдЯреНрд░рд┐рдХ рд▓реБрдИрд╕, рд▓реЗрдбреЗрд▓ рд╡реВ, рд╕рд░реНрдЧреЗрдИ рдПрдбреБрдиреЛрд╡, рдбреИрдирдХреА рдЪреЗрди, рдФрд░ рд╡реЗрди-рддрд╛рдК рдпрд┐рд╣ рджреНрд╡рд╛рд░рд╛ред
1. **[DPT](https://huggingface.co/docs/transformers/master/model_doc/dpt)** (рдЗрдВрдЯреЗрд▓ рд▓реИрдмреНрд╕ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдХрд╛рдЧрдЬ [рд╡рд┐рдЬрд╝рди рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░реНрд╕ рдлреЙрд░ рдбреЗрдВрд╕ рдкреНрд░реЗрдбрд┐рдХреНрд╢рди](https://arxiv.org /abs/2103.13413) рд░реЗрдиреЗ рд░реИрдирдлреНрдЯрд▓, рдПрд▓реЗрдХреНрд╕реА рдмреЛрдЪрдХреЛрд╡рд╕реНрдХреА, рд╡реНрд▓рд╛рджрд▓реЗрди рдХреЛрд▓реНрдЯрди рджреНрд╡рд╛рд░рд╛ред
1. **[EfficientFormer](https://huggingface.co/docs/transformers/model_doc/efficientformer)** (from Snap Research) released with the paper [EfficientFormer: Vision Transformers at MobileNetSpeed](https://arxiv.org/abs/2206.01191) by Yanyu Li, Geng Yuan, Yang Wen, Ju Hu, Georgios Evangelidis, Sergey Tulyakov, Yanzhi Wang, Jian Ren.
2023-03-15 01:49:10 +08:00
1. **[EfficientNet](https://huggingface.co/docs/transformers/model_doc/efficientnet)** (from Google Brain) released with the paper [EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks](https://arxiv.org/abs/1905.11946) by Mingxing Tan, Quoc V. Le.
1. **[ELECTRA](https://huggingface.co/docs/transformers/model_doc/electra)** (Google рд░рд┐рд╕рд░реНрдЪ/рд╕реНрдЯреИрдирдлреЛрд░реНрдб рдпреВрдирд┐рд╡рд░реНрд╕рд┐рдЯреА рд╕реЗ) рд╕рд╛рде рдореЗрдВ рджрд┐рдпрд╛ рдЧрдпрд╛ рдкреЗрдкрд░ [рдЗрд▓реЗрдХреНрдЯреНрд░рд╛: рдЬреЗрдирд░реЗрдЯрд░ рдХреЗ рдмрдЬрд╛рдп рднреЗрджрднрд╛рд╡ рдХрд░рдиреЗ рд╡рд╛рд▓реЗ рдХреЗ рд░реВрдк рдореЗрдВ рдЯреЗрдХреНрд╕реНрдЯ рдПрдиреНрдХреЛрдбрд░реНрд╕ рдХрд╛ рдкреВрд░реНрд╡-рдкреНрд░рд╢рд┐рдХреНрд╖рдг] (https://arxiv.org/abs/2003.10555) рдХреЗрд╡рд┐рди рдХреНрд▓рд╛рд░реНрдХ, рдорд┐рдиреНрд╣-рдерд╛рдВрдЧ рд▓реБрдУрдВрдЧ, рдХреНрд╡реЛрдХ рд╡реА. рд▓реЗ, рдХреНрд░рд┐рд╕реНрдЯреЛрдлрд░ рдбреА. рдореИрдирд┐рдВрдЧ рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[EncoderDecoder](https://huggingface.co/docs/transformers/model_doc/encoder-decoder)** (Google рд░рд┐рд╕рд░реНрдЪ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рджрд┐рдпрд╛ рдЧрдпрд╛ рдкреЗрдкрд░ [рд╕реАрдХреНрд╡реЗрдВрд╕ рдЬреЗрдирд░реЗрд╢рди рдЯрд╛рд╕реНрдХ рдХреЗ рд▓рд┐рдП рдкреНрд░реА-рдЯреНрд░реЗрдВрдб рдЪреЗрдХрдкреЙрдЗрдВрдЯ рдХрд╛ рдЗрд╕реНрддреЗрдорд╛рд▓ рдХрд░рдирд╛](https:/ /arxiv.org/abs/1907.12461) рд╕рд╛рд╢рд╛ рд░реЛрдареЗ, рд╢рд╢рд┐ рдирд╛рд░рд╛рдпрдг, рдЕрд▓рд┐рдпрд╛рдХреНрд╕рд┐ рд╕реЗрд╡реЗрд░рд┐рди рджреНрд╡рд╛рд░рд╛ред
1. **[ERNIE](https://huggingface.co/docs/transformers/model_doc/ernie)**(Baidu рд╕реЗ) рд╕рд╛рде рджреЗрдиреЗ рд╡рд╛рд▓рд╛ рдкреЗрдкрд░ [ERNIE: рдПрдиреНрд╣рд╛рдВрд╕реНрдб рд░рд┐рдкреНрд░реЗрдЬреЗрдВрдЯреЗрд╢рди рдереНрд░реВ рдиреЙрд▓реЗрдЬ рдЗрдВрдЯреАрдЧреНрд░реЗрд╢рди](https://arxiv.org/abs/1904.09223) рдпреВ рд╕рди, рд╢реБрдУрд╣реБрдЖрди рд╡рд╛рдВрдЧ, рдпреБрдХреБрди рд▓реА, рд╢рд┐рдХреБрди рдлреЗрдВрдЧ, рдЬрд╝реБрдИ рдЪреЗрди, рд╣рд╛рди рдЭрд╛рдВрдЧ, рд╢рд┐рди рддрд┐рдпрд╛рди, рдбреИрдирдХреНрд╕рд┐рдпрд╛рдВрдЧ рдЭреВ, рд╣рд╛рдУ рддрд┐рдпрд╛рди, рд╣реБрдЖ рд╡реВ рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
2023-03-15 01:49:10 +08:00
1. **[ErnieM](https://huggingface.co/docs/transformers/model_doc/ernie_m)** (Baidu рд╕реЗ) Xuan Ouyang, Shuohuan Wang, Chao Pang, Yu Sun, Hao Tian, Hua Wu, Haifeng Wang. рджреНрд╡рд╛рд░рд╛рдЕрдиреБрд╕рдВрдзрд╛рди рдкрддреНрд░ [ERNIE-M: Enhanced Multilingual Representation by Aligning Cross-lingual Semantics with Monolingual Corpora](https://arxiv.org/abs/2012.15674) рдХреЗ рд╕рд╛рде рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЧрдпрд╛
1. **[ESM](https://huggingface.co/docs/transformers/model_doc/esm)** (рдореЗрдЯрд╛ AI рд╕реЗ) рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░ рдкреНрд░реЛрдЯреАрди рднрд╛рд╖рд╛ рдореЙрдбрд▓ рд╣реИрдВред **ESM-1b** рдкреЗрдкрд░ рдХреЗ рд╕рд╛рде рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЧрдпрд╛ рдерд╛ [ рдЕрд▓реЗрдХреНрдЬреЗрдВрдбрд░ рд░рд╛рдЗрд╡реНрд╕, рдЬреЛрд╢реБрдЖ рдореЗрдпрд░, рдЯреЙрдо рд╕рд░реНрдХреБ, рд╕рд┐рджреНрдзрд╛рд░реНрде рдЧреЛрдпрд▓, рдЬрд╝реЗрдорд┐рдВрдЧ рд▓рд┐рди рджреНрд╡рд╛рд░рд╛ рдЬреИрд╡рд┐рдХ рд╕рдВрд░рдЪрдирд╛ рдФрд░ рдХрд╛рд░реНрдп рдЕрд╕реБрд░рдХреНрд╖рд┐рдд рд╕реАрдЦрдиреЗ рдХреЛ 250 рдорд┐рд▓рд┐рдпрди рдкреНрд░реЛрдЯреАрди рдЕрдиреБрдХреНрд░рдореЛрдВ рддрдХ рд╕реНрдХреЗрд▓ рдХрд░рдиреЗ рд╕реЗ рдЙрднрд░рддрд╛ рд╣реИ] (https://www.pnas.org/content/118/15/e2016239118) рдЬреЗрд╕рди рд▓рд┐рдпреВ, рдбреЗрдореА рдЧреБрдУ, рдорд╛рдпрд▓ рдУрдЯ, рд╕реА. рд▓реЙрд░реЗрдВрд╕ рдЬрд╝рд┐рдЯрдирд┐рдХ, рдЬреЗрд░реА рдорд╛ рдФрд░ рд░реЙрдм рдлрд░реНрдЧрд╕ред **ESM-1v** рдХреЛ рдкреЗрдкрд░ рдХреЗ рд╕рд╛рде рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЧрдпрд╛ рдерд╛ [рднрд╛рд╖рд╛ рдореЙрдбрд▓ рдкреНрд░реЛрдЯреАрди рдлрд╝рдВрдХреНрд╢рди рдкрд░ рдЙрддреНрдкрд░рд┐рд╡рд░реНрддрди рдХреЗ рдкреНрд░рднрд╛рд╡реЛрдВ рдХреА рд╢реВрдиреНрдп-рд╢реЙрдЯ рднрд╡рд┐рд╖реНрдпрд╡рд╛рдгреА рдХреЛ рд╕рдХреНрд╖рдо рдХрд░рддреЗ рд╣реИрдВ] (https://doi.org/10.1101/2021.07.09.450648) рдЬреЛрд╢реБрдЖ рдореЗрдпрд░, рд░реЛрд╢рди рд░рд╛рд╡, рд░реЙрдмрд░реНрдЯ рд╡реЗрд░рдХреБрдЗрд▓, рдЬреЗрд╕рди рд▓рд┐рдпреВ, рдЯреЙрдо рд╕рд░реНрдХреБ рдФрд░ рдЕрд▓реЗрдХреНрдЬреЗрдВрдбрд░ рд░рд╛рдЗрд╡реНрд╕ рджреНрд╡рд╛рд░рд╛ред **ESM-2** рдХреЛ рдкреЗрдкрд░ рдХреЗ рд╕рд╛рде рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЧрдпрд╛ рдерд╛ [рднрд╛рд╖рд╛ рдореЙрдбрд▓ рд╡рд┐рдХрд╛рд╕ рдХреЗ рдкреИрдорд╛рдиреЗ рдкрд░ рдкреНрд░реЛрдЯреАрди рдЕрдиреБрдХреНрд░рдо рд╕рдЯреАрдХ рд╕рдВрд░рдЪрдирд╛ рднрд╡рд┐рд╖реНрдпрд╡рд╛рдгреА рдХреЛ рд╕рдХреНрд╖рдо рдХрд░рддреЗ рд╣реИрдВ](https://doi.org/10.1101/2022.07.20.500902) рдЬрд╝реЗрдорд┐рдВрдЧ рд▓рд┐рди, рд╣рд▓реАрд▓ рдЕрдХрд┐рди, рд░реЛрд╢рди рд░рд╛рд╡, рдмреНрд░рд╛рдпрди рд╣реА, рдЭреЛрдВрдЧрдХрд╛рдИ рдЭреВ, рд╡реЗрдВрдЯрд┐рдВрдЧ рд▓реВ, рдП рджреНрд╡рд╛рд░рд╛ рд▓рд╛рди рдбреЙрд╕ рд╕реИрдВрдЯреЛрд╕ рдХреЛрд╕реНрдЯрд╛, рдорд░рд┐рдпрдо рдлрд╝рдЬрд╝рд▓-рдЬрд╝рд░рдВрдбреА, рдЯреЙрдо рд╕рд░реНрдХреВ, рд╕рд╛рд▓ рдХреИрдВрдбрд┐рдбреЛ, рдЕрд▓реЗрдХреНрдЬреЗрдВрдбрд░ рд░рд╛рдЗрд╡реНрд╕ред
[WIP] add SpeechT5 model (#18922) * make SpeechT5 model by copying Wav2Vec2 * add paper to docs * whoops added docs in wrong file * remove SpeechT5Tokenizer + put CTC back in the name * remove deprecated class * remove unused docstring * delete SpeechT5FeatureExtractor, use Wav2Vec2FeatureExtractor instead * remove classes we don't need right now * initial stab at speech encoder prenet * add more speech encoder prenet stuff * improve SpeechEncoderPrenet * add encoder (not finished yet) * add relative position bias to self-attention * add encoder CTC layers * fix formatting * add decoder from BART, doesn't work yet * make it work with generate loop * wrap the encoder into a speech encoder class * wrap the decoder in a text decoder class * changed my mind * changed my mind again ;-) * load decoder weights, make it work * add weights for text decoder postnet * add SpeechT5ForCTC model that uses only the encoder * clean up EncoderLayer and DecoderLayer * implement _init_weights in SpeechT5PreTrainedModel * cleanup config + Encoder and Decoder * add head + cross attention masks * improve doc comments * fixup * more cleanup * more fixup * TextDecoderPrenet works now, thanks Kendall * add CTC loss * add placeholders for other pre/postnets * add type annotation * fix freeze_feature_encoder * set padding tokens to 0 in decoder attention mask * encoder attention mask downsampling * remove features_pen calculation * disable the padding tokens thing again * fixup * more fixup * code review fixes * rename encoder/decoder wrapper classes * allow checkpoints to be loaded into SpeechT5Model * put encoder into wrapper for CTC model * clean up conversion script * add encoder for TTS model * add speech decoder prenet * add speech decoder post-net * attempt to reconstruct the generation loop * add speech generation loop * clean up generate_speech * small tweaks * fix forward pass * enable always dropout on speech decoder prenet * sort declaration * rename models * fixup * fix copies * more fixup * make consistency checker happy * add Seq2SeqSpectrogramOutput class * doc comments * quick note about loss and labels * add HiFi-GAN implementation (from Speech2Speech PR) * rename file * add vocoder to TTS model * improve vocoder * working on tokenizer * more better tokenizer * add CTC tokenizer * fix decode and batch_code in CTC tokenizer * fix processor * two processors and feature extractors * use SpeechT5WaveformFeatureExtractor instead of Wav2Vec2 * cleanup * more cleanup * even more fixup * notebooks * fix log-mel spectrograms * support reduction factor * fixup * shift spectrograms to right to create decoder inputs * return correct labels * add labels for stop token prediction * fix doc comments * fixup * remove SpeechT5ForPreTraining * more fixup * update copyright headers * add usage examples * add SpeechT5ProcessorForCTC * fixup * push unofficial checkpoints to hub * initial version of tokenizer unit tests * add slow test * fix failing tests * tests for CTC tokenizer * finish CTC tokenizer tests * processor tests * initial test for feature extractors * tests for spectrogram feature extractor * fixup * more fixup * add decorators * require speech for tests * modeling tests * more tests for ASR model * fix imports * add fake tests for the other models * fixup * remove jupyter notebooks * add missing SpeechT5Model tests * add missing tests for SpeechT5ForCTC * add missing tests for SpeechT5ForTextToSpeech * sort tests by name * fix Hi-Fi GAN tests * fixup * add speech-to-speech model * refactor duplicate speech generation code * add processor for SpeechToSpeech model * add usage example * add tests for speech-to-speech model * fixup * enable gradient checkpointing for SpeechT5FeatureEncoder * code review * push_to_hub now takes repo_id * improve doc comments for HiFi-GAN config * add missing test * add integration tests * make number of layers in speech decoder prenet configurable * rename variable * rename variables * add auto classes for TTS and S2S * REMOVE CTC!!! * S2S processor does not support save/load_pretrained * fixup * these models are now in an auto mapping * fix doc links * rename HiFiGAN to HifiGan, remove separate config file * REMOVE auto classes * there can be only one * fixup * replace assert * reformat * feature extractor can process input and target at same time * update checkpoint names * fix commit hash
2023-02-04 01:43:46 +08:00
1. **[FLAN-T5](https://huggingface.co/docs/transformers/model_doc/flan-t5)** (from Google AI) released in the repository [google-research/t5x](https://github.com/google-research/t5x/blob/main/docs/models.md#flan-t5-checkpoints) by Hyung Won Chung, Le Hou, Shayne Longpre, Barret Zoph, Yi Tay, William Fedus, Eric Li, Xuezhi Wang, Mostafa Dehghani, Siddhartha Brahma, Albert Webson, Shixiang Shane Gu, Zhuyun Dai, Mirac Suzgun, Xinyun Chen, Aakanksha Chowdhery, Sharan Narang, Gaurav Mishra, Adams Yu, Vincent Zhao, Yanping Huang, Andrew Dai, Hongkun Yu, Slav Petrov, Ed H. Chi, Jeff Dean, Jacob Devlin, Adam Roberts, Denny Zhou, Quoc V. Le, and Jason Wei
2023-04-19 22:03:57 +08:00
1. **[FLAN-UL2](https://huggingface.co/docs/transformers/model_doc/flan-ul2)** (from Google AI) released in the repository [google-research/t5x](https://github.com/google-research/t5x/blob/main/docs/models.md#flan-ul2-checkpoints) by Hyung Won Chung, Le Hou, Shayne Longpre, Barret Zoph, Yi Tay, William Fedus, Eric Li, Xuezhi Wang, Mostafa Dehghani, Siddhartha Brahma, Albert Webson, Shixiang Shane Gu, Zhuyun Dai, Mirac Suzgun, Xinyun Chen, Aakanksha Chowdhery, Sharan Narang, Gaurav Mishra, Adams Yu, Vincent Zhao, Yanping Huang, Andrew Dai, Hongkun Yu, Slav Petrov, Ed H. Chi, Jeff Dean, Jacob Devlin, Adam Roberts, Denny Zhou, Quoc V. Le, and Jason Wei
1. **[FlauBERT](https://huggingface.co/docs/transformers/model_doc/flaubert)** (CNRS рд╕реЗ) рд╕рд╛рде рд╡рд╛рд▓рд╛ рдкреЗрдкрд░ [FlauBERT: Unsupervised Language Model Pre-training for рдлрд╝реНрд░реЗрдВрдЪ](https://arxiv .org/abs/1912.05372) Hang Le, Lo├пc Vial, Jibril Frej, Vincent Segonne, Maximin Coavoux, рдмреЗрдВрдЬрд╛рдорд┐рди рд▓реЗрдХреЛрдЙрдЯреЗрдХреНрд╕, рдЕрд▓реЗрдХреНрдЬреЗрдВрдбреНрд░реЗ рдЕрд▓реНрд▓рд╛рдЙрдЬрд╝реЗрди, рдмреЗрдиреЛрдЗрдЯ рдХреНрд░реИрдмреЗ, рд▓реЙрд░реЗрдВрдЯ рдмреЗрд╕реЗрд╕рд┐рдпрд░, рдбрд┐рдбрд┐рдПрд░ рд╢реНрд╡рд╛рдм рджреНрд╡рд╛рд░рд╛ред
1. **[FLAVA](https://huggingface.co/docs/transformers/model_doc/flava)** (FLAVA: A рдлрд╛рдЙрдВрдбреЗрд╢рдирд▓ рд▓реИрдВрдЧреНрд╡реЗрдЬ рдПрдВрдб рд╡рд┐рдЬрди рдЕрд▓рд╛рдЗрдирдореЗрдВрдЯ рдореЙрдбрд▓) (https://arxiv) рд╕рд╛рде рд╡рд╛рд▓рд╛ рдкреЗрдкрд░ .org/abs/2112.04482) рдЕрдордирдкреНрд░реАрдд рд╕рд┐рдВрд╣, рд░реЛрдВрдЧрд╣рд╛рдВрдЧ рд╣реВ, рд╡реЗрджрд╛рдиреБрдЬ рдЧреЛрд╕реНрд╡рд╛рдореА, рдЧреБрдЗрд▓реНрдпреВрдо рдХреБрдПрд░реЙрди, рд╡реЛрдЬреНрд╢рд┐рдПрдХ рдЧрд╛рд▓реБрдмрд╛, рдорд╛рд░реНрдХрд╕ рд░реЛрд╣рд░рдмреИрдХ, рдФрд░ рдбреМрд╡реЗ рдХреАрд▓рд╛ рджреНрд╡рд╛рд░рд╛ред
1. **[FNet](https://huggingface.co/docs/transformers/model_doc/fnet)** (рдЧреВрдЧрд▓ рд░рд┐рд╕рд░реНрдЪ рд╕реЗ) рд╕рд╛рде рд╡рд╛рд▓рд╛ рдкреЗрдкрд░ [FNet: рдорд┐рдХреНрд╕рд┐рдВрдЧ рдЯреЛрдХрди рд╡рд┐рдж рдлреВрд░рд┐рдпрд░ рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдореНрд╕](https://arxiv.org /abs/2105.03824) рдЬреЗрдореНрд╕ рд▓реА-рдереЙрд░реНрдк, рдЬреЛрд╢реБрдЖ рдЖрдЗрдВрд╕реНрд▓реА, рдЗрд▓реНрдпрд╛ рдПрдХрд╕реНрдЯреАрди, рд╕реИрдВрдЯрд┐рдпрд╛рдЧреЛ рдУрдВрдЯрд╛рдирди рджреНрд╡рд╛рд░рд╛ред
1. **[FocalNet](https://huggingface.co/docs/transformers/main/model_doc/focalnet)** (Microsoft Research рд╕реЗ) Jianwei Yang, Chunyuan Li, Xiyang Dai, Lu Yuan, Jianfeng Gao. рджреНрд╡рд╛рд░рд╛рдЕрдиреБрд╕рдВрдзрд╛рди рдкрддреНрд░ [Focal Modulation Networks](https://arxiv.org/abs/2203.11926) рдХреЗ рд╕рд╛рде рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЧрдпрд╛
1. **[Funnel Transformer](https://huggingface.co/docs/transformers/model_doc/funnel)** (рд╕реАрдПрдордпреВ/рдЧреВрдЧрд▓ рдмреНрд░реЗрди рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдХрд╛рдЧрдЬ [рдлрд╝рдирд▓-рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░: рдХреБрд╢рд▓ рднрд╛рд╖рд╛ рдкреНрд░рд╕рдВрд╕реНрдХрд░рдг рдХреЗ рд▓рд┐рдП рдЕрдиреБрдХреНрд░рдорд┐рдХ рдЕрддрд┐рд░реЗрдХ рдХреЛ рдЫрд╛рдирдирд╛](https://arxiv.org/abs/2006.03236) рдЬрд┐рд╣рд╛рдВрдЧ рджрд╛рдИ, рдЧреБрдУрдХреБрди рд▓рд╛рдИ, рдпрд┐рдорд┐рдВрдЧ рдпрд╛рдВрдЧ, рдХреНрд╡реЛрдХ рд╡реА. рд▓реЗ тАЛтАЛрджреНрд╡рд╛рд░рд╛ рд░рд┐рд╣рд╛рдИред
1. **[GIT](https://huggingface.co/docs/transformers/model_doc/git)** (from Microsoft Research) released with the paper [GIT: A Generative Image-to-text Transformer for Vision and Language](https://arxiv.org/abs/2205.14100) by Jianfeng Wang, Zhengyuan Yang, Xiaowei Hu, Linjie Li, Kevin Lin, Zhe Gan, Zicheng Liu, Ce Liu, Lijuan Wang.
1. **[GLPN](https://huggingface.co/docs/transformers/model_doc/glpn)** (KAIST рд╕реЗ) рд╕рд╛рде рд╡рд╛рд▓рд╛ рдкреЗрдкрд░ [рд╡рд░реНрдЯрд┐рдХрд▓ рдХрдЯрдбреЗрдкреНрде рдХреЗ рд╕рд╛рде рдореЛрдиреЛрдХреБрд▓рд░ рдбреЗрдкреНрде рдПрд╕реНрдЯреАрдореЗрд╢рди рдХреЗ рд▓рд┐рдП рдЧреНрд▓реЛрдмрд▓-рд▓реЛрдХрд▓ рдкрд╛рде рдиреЗрдЯрд╡рд░реНрдХреНрд╕](https:/ /arxiv.org/abs/2201.07436) рдбреЛрдпреЛрди рдХрд┐рдо, рд╡реВрдВрдЧрд╣реНрдпреБрди рдЧрд╛, рдкреНрдпреБрдВрдЧрд╡рд╛рди рдЖрд╣, рдбреЛрдВрдЧрдЧреНрдпреВ рдЬреВ, рд╕реЗрд╣рд╡рд╛рди рдЪреБрди, рдЬреБрдирдореЛ рдХрд┐рдо рджреНрд╡рд╛рд░рд╛ред
1. **[GPT](https://huggingface.co/docs/transformers/model_doc/openai-gpt)** (OpenAI рд╕реЗ) рд╕рд╛рде рдореЗрдВ рджрд┐рдпрд╛ рдЧрдпрд╛ рдкреЗрдкрд░ [рдЬреЗрдирд░реЗрдЯрд┐рд╡ рдкреНрд░реА-рдЯреНрд░реЗрдирд┐рдВрдЧ рджреНрд╡рд╛рд░рд╛ рднрд╛рд╖рд╛ рдХреА рд╕рдордЭ рдореЗрдВ рд╕реБрдзрд╛рд░](https://blog .openai.com/language-unsupervised/) рдПрд▓реЗрдХ рд░реИрдбрдлреЛрд░реНрдб, рдХрд╛рд░реНрддрд┐рдХ рдирд░рд╕рд┐рдореНрд╣рди, рдЯрд┐рдо рд╕рд╛рд▓рд┐рдордиреНрд╕ рдФрд░ рдЗрд▓реНрдпрд╛ рд╕реБрддреНрд╕реНрдХреЗрд╡рд░ рджреНрд╡рд╛рд░рд╛ред
1. **[GPT Neo](https://huggingface.co/docs/transformers/model_doc/gpt_neo)** (EleutherAI рд╕реЗ) рд░рд┐рдкреЙрдЬрд┐рдЯрд░реА рдХреЗ рд╕рд╛рде [EleutherAI/gpt-neo](https://github.com/ EleutherAI /gpt-neo) рд░рд┐рд▓реАрдЬред рд╕рд┐рдб рдмреНрд▓реИрдХ, рд╕реНрдЯреЗрд▓рд╛ рдмрд┐рдбрд░рдореИрди, рд▓рд┐рдпреЛ рдЧрд╛рдУ, рдлрд┐рд▓ рд╡рд╛рдВрдЧ рдФрд░ рдХреЙрдирд░ рд▓реЗрд╣реА рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[GPT NeoX](https://huggingface.co/docs/transformers/model_doc/gpt_neox)** (EleutherAI рд╕реЗ) рдкреЗрдкрд░ рдХреЗ рд╕рд╛рде рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЧрдпрд╛ [GPT-NeoX-20B: рдПрдХ рдУрдкрди-рд╕реЛрд░реНрд╕ рдСрдЯреЛрд░реЗрдЧреНрд░реЗрд╕рд┐рд╡ рд▓реИрдВрдЧреНрд╡реЗрдЬ рдореЙрдбрд▓] (https://arxiv.org/abs/2204.06745) рд╕рд┐рдб рдмреНрд▓реИрдХ, рд╕реНрдЯреЗрд▓рд╛ рдмрд┐рдбрд░рдореИрди, рдПрд░рд┐рдХ рд╣реИрд▓рд╛рд╣рди, рдХреНрд╡реЗрдВрдЯрд┐рди рдПрдВрдереЛрдиреА, рд▓рд┐рдпреЛ рдЧрд╛рдУ, рд▓реЙрд░реЗрдВрд╕ рдЧреЛрд▓реНрдбрд┐рдВрдЧ, рд╣реЛрд░реЗрд╕ рд╣реЗ, рдХреЙрдирд░ рд▓реЗрд╣реА, рдХрд╛рдЗрд▓ рдореИрдХрдбреЛрдиреЗрд▓, рдЬреЗрд╕рди рдлрд╛рдВрдЧ, рдорд╛рдЗрдХрд▓ рдкрд╛рдЗрд▓рд░, рдпреВрдПрд╕рд╡реАрдПрд╕рдПрди рд╕рд╛рдИ рдкреНрд░рд╢рд╛рдВрдд рджреНрд╡рд╛рд░рд╛ , рд╢рд┐рд╡рд╛рдВрд╢реБ рдкреБрд░реЛрд╣рд┐рдд, рд▓рд╛рд░рд┐рдпрд╛ рд░реЗрдиреЙрд▓реНрдбреНрд╕, рдЬреЛрдирд╛рдерди рдЯреЛ, рдмреЗрди рд╡рд╛рдВрдЧ, рд╕реИрдореБрдЕрд▓ рд╡реЗрдирдмреИрдХ
1. **[GPT NeoX Japanese](https://huggingface.co/docs/transformers/model_doc/gpt_neox_japanese)** (рдЕрдмреЗрдЬрд╛ рдХреЗ рдЬрд░рд┐рдП) рд╢рд┐рдиреНрдпрд╛ рдУрдЯрд╛рдиреА, рддрд╛рдХрд╛рдпреЛрд╢реА рдордХрд╛рдмреЗ, рдЕрдиреБрдЬ рдЕрд░реЛрдбрд╝рд╛, рдХреНрдпреЛ рд╣рдЯреЛрд░реА рджреНрд╡рд╛рд░рд╛ред
1. **[GPT-2](https://huggingface.co/docs/transformers/model_doc/gpt2)** (рдУрдкрдирдПрдЖрдИ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [рд▓реИрдВрдЧреНрд╡реЗрдЬ рдореЙрдбрд▓реНрд╕ рдЕрдирд╕реБрдкрд░рд╡рд╛рдЗрдЬреНрдб рдорд▓реНрдЯреАрдЯрд╛рд╕реНрдХ рд▓рд░реНрдирд░реНрд╕ рд╣реИрдВ](https://blog.openai.com/better-language-models/) рдПрд▓реЗрдХ рд░реИрдбрдлреЛрд░реНрдб*, рдЬреЗрдлрд░реА рд╡реВ*, рд░реЗрд╡рди рдЪрд╛рдЗрд▓реНрдб, рдбреЗрд╡рд┐рдб рд▓реБрдЖрди, рдбрд╛рд░рд┐рдпреЛ рдПрдореЛрдбреА* рджреНрд╡рд╛рд░рд╛ * рдФрд░ рдЗрд▓реНрдпрд╛ рд╕реБрддреНрд╕рдХреЗрд╡рд░** рдиреЗ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ред
1. **[GPT-J](https://huggingface.co/docs/transformers/model_doc/gptj)** (EleutherAI рд╕реЗ) рд╕рд╛рде рд╡рд╛рд▓рд╛ рдкреЗрдкрд░ [kingoflolz/mesh-transformer-jax](https://github. com/kingoflolz/mesh-transformer-jax/) рдмреЗрди рд╡рд╛рдВрдЧ рдФрд░ рдЕрд░рди рдХреЛрдорд╛рддреНрд╕реБрдЬрд╛рдХреА рджреНрд╡рд╛рд░рд╛ред
1. **[GPT-Sw3](https://huggingface.co/docs/transformers/model_doc/gpt-sw3)** (from AI-Sweden) released with the paper [Lessons Learned from GPT-SW3: Building the First Large-Scale Generative Language Model for Swedish](http://www.lrec-conf.org/proceedings/lrec2022/pdf/2022.lrec-1.376.pdf) by Ariel Ekgren, Amaru Cuba Gyllensten, Evangelia Gogoulou, Alice Heiman, Severine Verlinden, Joey ├Цhman, Fredrik Carlsson, Magnus Sahlgren.
2023-04-19 22:03:57 +08:00
1. **[GPTBigCode](https://huggingface.co/docs/transformers/model_doc/gpt_bigcode)** (BigCode рд╕реЗ) Loubna Ben Allal, Raymond Li, Denis Kocetkov, Chenghao Mou, Christopher Akiki, Carlos Munoz Ferrandis, Niklas Muennighoff, Mayank Mishra, Alex Gu, Manan Dey, Logesh Kumar Umapathi, Carolyn Jane Anderson, Yangtian Zi, Joel Lamy Poirier, Hailey Schoelkopf, Sergey Troshin, Dmitry Abulkhanov, Manuel Romero, Michael Lappert, Francesco De Toni, Bernardo Garc├нa del R├нo, Qian Liu, Shamik Bose, Urvashi Bhattacharyya, Terry Yue Zhuo, Ian Yu, Paulo Villegas, Marco Zocca, Sourab Mangrulkar, David Lansky, Huu Nguyen, Danish Contractor, Luis Villa, Jia Li, Dzmitry Bahdanau, Yacine Jernite, Sean Hughes, Daniel Fried, Arjun Guha, Harm de Vries, Leandro von Werra. рджреНрд╡рд╛рд░рд╛рдЕрдиреБрд╕рдВрдзрд╛рди рдкрддреНрд░ [SantaCoder: don't reach for the stars!](https://arxiv.org/abs/2301.03988) рдХреЗ рд╕рд╛рде рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЧрдпрд╛
2023-03-15 01:49:10 +08:00
1. **[GPTSAN-japanese](https://huggingface.co/docs/transformers/model_doc/gptsan-japanese)** released in the repository [tanreinama/GPTSAN](https://github.com/tanreinama/GPTSAN/blob/main/report/model.md) by Toshiyuki Sakamoto(tanreinama).
1. **[Graphormer](https://huggingface.co/docs/transformers/model_doc/graphormer)** (from Microsoft) released with the paper [Do Transformers Really Perform Bad for Graph Representation?](https://arxiv.org/abs/2106.05234) by Chengxuan Ying, Tianle Cai, Shengjie Luo, Shuxin Zheng, Guolin Ke, Di He, Yanming Shen, Tie-Yan Liu.
1. **[GroupViT](https://huggingface.co/docs/transformers/model_doc/groupvit)** (UCSD, NVIDIA рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдХрд╛рдЧрдЬ [GroupViT: рдЯреЗрдХреНрд╕реНрдЯ рд╕реБрдкрд░рд╡рд┐рдЬрди рд╕реЗ рд╕рд┐рдореЗрдВрдЯрд┐рдХ рд╕реЗрдЧрдореЗрдВрдЯреЗрд╢рди рдЗрдорд░реНрдЬреЗрд╕](https://arxiv .org/abs/2202.11094) рдЬрд┐рдпрд╛рд░реБрдИ рдЬреВ, рд╢рд╛рд▓рд┐рдиреА рдбреА рдореЗрд▓реЛ, рд╕рд┐рдлрд╝реА рд▓рд┐рдпреВ, рд╡реЛрдирдорд┐рди рдмрд╛рдпрди, рдереЙрдорд╕ рдмреНрд░реЗрдЙрдПрд▓, рдЬрд╛рди рдХреМрдЯреНрдЬрд╝, рдЬрд╝рд┐рдпрд╛рдУрд▓реЛрдВрдЧ рд╡рд╛рдВрдЧ рджреНрд╡рд╛рд░рд╛ред
1. **[Hubert](https://huggingface.co/docs/transformers/model_doc/hubert)** (рдлреЗрд╕рдмреБрдХ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [рд╣реНрдпреВрдмрд░реНрдЯ: рд╕реЗрд▓реНрдл рд╕реБрдкрд░рд╡рд╛рдЗрдЬреНрдб рд╕реНрдкреАрдЪ рд░рд┐рдкреНрд░реЗрдЬреЗрдВрдЯреЗрд╢рди рд▓рд░реНрдирд┐рдВрдЧ рдмрд╛рдп рдорд╛рд╕реНрдХреНрдб рдкреНрд░реЗрдбрд┐рдХреНрд╢рди рдСрдл рд╣рд┐рдбрди рдпреВрдирд┐рдЯреНрд╕](https ://arxiv.org/abs/2106.07447) рд╡реЗрдИ-рдирд┐рдВрдЧ рд╕реВ, рдмреЗрдВрдЬрд╛рдорд┐рди рдмреЛрд▓реНрдЯреЗ, рдпрд╛рдУ-рд╣рдВрдЧ рд╣реНрдпреВрдмрд░реНрдЯ рддреНрд╕рд╛рдИ, рдХреБрд╢рд╛рд▓ рд▓рдЦреЛрдЯрд┐рдпрд╛, рд░реБрд╕реНрд▓рд╛рди рд╕рд╛рд▓рд╛рдЦреБрддрджреАрдиреЛрд╡, рдЕрдмреНрджреЗрд▓рд░рд╣рдорд╛рди рдореЛрд╣рдореНрдордж рджреНрд╡рд╛рд░рд╛ред
1. **[I-BERT](https://huggingface.co/docs/transformers/model_doc/ibert)** (рдмрд░реНрдХрд▓реЗ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдХрд╛рдЧрдЬ [I-BERT: Integer-only BERT Quantization](https:// arxiv.org/abs/2101.01321) рд╕реЗрд╣реВрди рдХрд┐рдо, рдЕрдореАрд░ рдШреЛрд▓рдореА, рдЬрд╝реЗрд╡реЗрдИ рдпрд╛рдУ, рдорд╛рдЗрдХрд▓ рдбрдмреНрд▓реНрдпреВ рдорд╣реЛрдиреА, рдХрд░реНрдЯ рдХреЗрдЯрдЬрд╝рд░ рджреНрд╡рд╛рд░рд╛ред
1. **[ImageGPT](https://huggingface.co/docs/transformers/model_doc/imagegpt)** (from OpenAI) released with the paper [Generative Pretraining from Pixels](https://openai.com/blog/image-gpt/) by Mark Chen, Alec Radford, Rewon Child, Jeffrey Wu, Heewoo Jun, David Luan, Ilya Sutskever.
2023-03-15 01:49:10 +08:00
1. **[Informer](https://huggingface.co/docs/transformers/model_doc/informer)** (from Beihang University, UC Berkeley, Rutgers University, SEDD Company) released with the paper [Informer: Beyond Efficient Transformer for Long Sequence Time-Series Forecasting](https://arxiv.org/abs/2012.07436) by Haoyi Zhou, Shanghang Zhang, Jieqi Peng, Shuai Zhang, Jianxin Li, Hui Xiong, and Wancai Zhang.
1. **[Jukebox](https://huggingface.co/docs/transformers/model_doc/jukebox)** (from OpenAI) released with the paper [Jukebox: A Generative Model for Music](https://arxiv.org/pdf/2005.00341.pdf) by Prafulla Dhariwal, Heewoo Jun, Christine Payne, Jong Wook Kim, Alec Radford, Ilya Sutskever.
1. **[LayoutLM](https://huggingface.co/docs/transformers/model_doc/layoutlm)** (from Microsoft Research Asia) released with the paper [LayoutLM: Pre-training of Text and Layout for Document Image Understanding](https://arxiv.org/abs/1912.13318) by Yiheng Xu, Minghao Li, Lei Cui, Shaohan Huang, Furu Wei, Ming Zhou.
1. **[LayoutLMv2](https://huggingface.co/docs/transformers/model_doc/layoutlmv2)** (from Microsoft Research Asia) released with the paper [LayoutLMv2: Multi-modal Pre-training for Visually-Rich Document Understanding](https://arxiv.org/abs/2012.14740) by Yang Xu, Yiheng Xu, Tengchao Lv, Lei Cui, Furu Wei, Guoxin Wang, Yijuan Lu, Dinei Florencio, Cha Zhang, Wanxiang Che, Min Zhang, Lidong Zhou.
1. **[LayoutLMv3](https://huggingface.co/docs/transformers/model_doc/layoutlmv3)** (рдорд╛рдЗрдХреНрд░реЛрд╕реЙрдлреНрдЯ рд░рд┐рд╕рд░реНрдЪ рдПрд╢рд┐рдпрд╛ рд╕реЗ) рд╕рд╛рде рджреЗрдиреЗ рд╡рд╛рд▓рд╛ рдкреЗрдкрд░ [рд▓реЗрдЖрдЙрдЯрдПрд▓рдПрдорд╡реА3: рдпреВрдирд┐рдлрд╛рдЗрдб рдЯреЗрдХреНрд╕реНрдЯ рдФрд░ рдЗрдореЗрдЬ рдорд╛рд╕реНрдХрд┐рдВрдЧ рдХреЗ рд╕рд╛рде рджрд╕реНрддрд╛рд╡реЗрдЬрд╝ рдПрдЖрдИ рдХреЗ рд▓рд┐рдП рдкреВрд░реНрд╡-рдкреНрд░рд╢рд┐рдХреНрд╖рдг](https://arxiv.org/abs/2204.08387) рдпреБрдкрди рд╣реБрдЖрдВрдЧ, рдЯреЗрдВрдЧрдЪрд╛рдУ рд▓рд╡, рд▓реЗрдИ рдХреБрдИ, рдпреБрдЯреЛрдВрдЧ рд▓реВ, рдлреБрд░реБ рд╡реЗрдИ рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[LayoutXLM](https://huggingface.co/docs/transformers/model_doc/layoutxlm)** (from Microsoft Research Asia) released with the paper [LayoutXLM: Multimodal Pre-training for Multilingual Visually-rich Document Understanding](https://arxiv.org/abs/2104.08836) by Yiheng Xu, Tengchao Lv, Lei Cui, Guoxin Wang, Yijuan Lu, Dinei Florencio, Cha Zhang, Furu Wei.
1. **[LED](https://huggingface.co/docs/transformers/model_doc/led)** (from AllenAI) released with the paper [Longformer: The Long-Document Transformer](https://arxiv.org/abs/2004.05150) by Iz Beltagy, Matthew E. Peters, Arman Cohan.
1. **[LeViT](https://huggingface.co/docs/transformers/model_doc/levit)** (рдореЗрдЯрд╛ AI рд╕реЗ) рд╕рд╛рде рд╡рд╛рд▓рд╛ рдкреЗрдкрд░ [LeViT: A Vision Transformer in ConvNet's Clothing for Faster Inference](https:/ /arxiv.org/abs/2104.01136) рдмреЗрди рдЧреНрд░рд╛рд╣рдо, рдЕрд▓рд╛рдПрд▓реНрдбрд┐рди рдПрд▓-рдиреМрдмреА, рд╣реНрдпреВрдЧреЛ рдЯреМрд╡рд░рди, рдкрд┐рдпрд░реЗ рд╕реНрдЯреЙрдХ, рдЖрд░реНрдордВрдб рдЬреМрд▓рд┐рди, рд╣рд░реНрд╡реЗ рдЬреЗрдЧреМ, рдореИрдерд┐рдЬ рдбреВрдЬрд╝ рджреНрд╡рд╛рд░рд╛ред
1. **[LiLT](https://huggingface.co/docs/transformers/model_doc/lilt)** (рджрдХреНрд╖рд┐рдг рдЪреАрди рдкреНрд░реМрджреНрдпреЛрдЧрд┐рдХреА рд╡рд┐рд╢реНрд╡рд╡рд┐рджреНрдпрд╛рд▓рдп рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдХрд╛рдЧрдЬ [LiLT: рдПрдХ рд╕рд░рд▓ рд▓реЗрдХрд┐рди рдкреНрд░рднрд╛рд╡реА рднрд╛рд╖рд╛-рд╕реНрд╡рддрдВрддреНрд░ рд▓реЗрдЖрдЙрдЯ рдЯреНрд░рд╛рдВрд╕рдлрд╛рд░реНрдорд░ рд╕рдВрд░рдЪрд┐рдд рджрд╕реНрддрд╛рд╡реЗрдЬрд╝ рд╕рдордЭ рдХреЗ рд▓рд┐рдП](https://arxiv.org/abs/2202.13669) рдЬрд┐рдпрд╛рдкреЗрдВрдЧ рд╡рд╛рдВрдЧ, рд▓рд┐рдпрд╛рдирд╡реЗрди рдЬрд┐рди, рдХрд╛рдИ рдбрд┐рдВрдЧ рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
2023-04-19 22:03:57 +08:00
1. **[LLaMA](https://huggingface.co/docs/transformers/model_doc/llama)** (The FAIR team of Meta AI рд╕реЗ) Hugo Touvron, Thibaut Lavril, Gautier Izacard, Xavier Martinet, Marie-Anne Lachaux, Timoth├йe Lacroix, Baptiste Rozi├иre, Naman Goyal, Eric Hambro, Faisal Azhar, Aurelien Rodriguez, Armand Joulin, Edouard Grave, Guillaume Lample. рджреНрд╡рд╛рд░рд╛рдЕрдиреБрд╕рдВрдзрд╛рди рдкрддреНрд░ [LLaMA: Open and Efficient Foundation Language Models](https://arxiv.org/abs/2302.13971) рдХреЗ рд╕рд╛рде рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЧрдпрд╛
1. **[Longformer](https://huggingface.co/docs/transformers/model_doc/longformer)** (from AllenAI) released with the paper [Longformer: The Long-Document Transformer](https://arxiv.org/abs/2004.05150) by Iz Beltagy, Matthew E. Peters, Arman Cohan.
1. **[LongT5](https://huggingface.co/docs/transformers/model_doc/longt5)** (рдореИрдВрдбреА рдЧреБрдУ, рдЬреЛрд╢реБрдЖ рдЖрдЗрдВрд╕реНрд▓реА, рдбреЗрд╡рд┐рдб рдпреВрдерд╕, рд╕реИрдВрдЯрд┐рдпрд╛рдЧреЛ рдУрдВрдЯрд╛рдирди, рдЬрд┐рдпрд╛рдирдореЛ рдирд┐, рдпреВрдВ-рд╣реБрдЖрди рд╕реБрдВрдЧ, рдпрд┐рдирдлреЗрдИ рдпрд╛рдВрдЧ рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[LUKE](https://huggingface.co/docs/transformers/model_doc/luke)** (рд╕реНрдЯреВрдбрд┐рдпреЛ рдФрд╕рд┐рдпрд╛ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [LUKE: рдбреАрдк рдХреЙрдиреНрдЯреЗрдХреНрд╕реНрдЯреБрдЕрд▓рд╛рдЗрдЬреНрдб рдПрдВрдЯрд┐рдЯреА рд░рд┐рдкреНрд░реЗрдЬреЗрдВрдЯреЗрд╢рди рд╡рд┐рдж рдПрдВрдЯрд┐рдЯреА-рдЕрд╡реЗрдпрд░ рд╕реЗрд▓реНрдл-рдЕрдЯреЗрдВрд╢рди](https ://arxiv.org/abs/2010.01057) Ikuya Yamada, Akari Asai, Hiroyuki Shindo, Hideaki Takeda, Yuji Matsumoto рджреНрд╡рд╛рд░рд╛ред
1. **[LXMERT](https://huggingface.co/docs/transformers/model_doc/lxmert)** (UNC рдЪреИрдкрд▓ рд╣рд┐рд▓ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [LXMERT: рдУрдкрди-рдбреЛрдореЗрди рдХреНрд╡реЗрд╢реНрдЪрди рдХреЗ рд▓рд┐рдП рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░ рд╕реЗ рдХреНрд░реЙрд╕-рдореЛрдбрд▓рд┐рдЯреА рдПрдирдХреЛрдбрд░ рд░рд┐рдкреНрд░реЗрдЬреЗрдВрдЯреЗрд╢рди рд╕реАрдЦрдирд╛ Answering](https://arxiv.org/abs/1908.07490) рд╣рд╛рдУ рдЯреИрди рдФрд░ рдореЛрд╣рд┐рдд рдмрдВрд╕рд▓ рджреНрд╡рд╛рд░рд╛ред
1. **[M-CTC-T](https://huggingface.co/docs/transformers/model_doc/mctct)** (from Facebook) released with the paper [Pseudo-Labeling For Massively Multilingual Speech Recognition](https://arxiv.org/abs/2111.00161) by Loren Lugosch, Tatiana Likhomanenko, Gabriel Synnaeve, and Ronan Collobert.
1. **[M2M100](https://huggingface.co/docs/transformers/model_doc/m2m_100)** (рдлреЗрд╕рдмреБрдХ рд╕реЗ) рд╕рд╛рде рджреЗрдиреЗ рд╡рд╛рд▓рд╛ рдкреЗрдкрд░ [рдмрд┐рдпреЙрдиреНрдб рдЗрдВрдЧреНрд▓рд┐рд╢-рд╕реЗрдВрдЯреНрд░рд┐рдХ рдорд▓реНрдЯреАрд▓рд┐рдВрдЧреБрдЕрд▓ рдорд╢реАрди рдЯреНрд░рд╛рдВрд╕рд▓реЗрд╢рди](https://arxiv.org/ рдПрдмреНрд╕/2010.11125) рдПрдВрдЬреЗрд▓рд╛ рдлреИрди, рд╢реНрд░реБрддрд┐ рднреЛрд╕рд▓реЗ, рд╣реЛрд▓реНрдЧрд░ рд╢реНрд╡реЗрдиреНрдХ, рдЭреА рдорд╛, рдЕрд╣рдордж рдЕрд▓-рдХрд┐рд╢реНрдХреА, рд╕рд┐рджреНрдзрд╛рд░реНрде рдЧреЛрдпрд▓, рдордирджреАрдк рдмреИрдиреЗрд╕, рдУрдиреВрд░ рд╕реЗрд▓реЗрдмреА, рдЧреБрдЗрд▓реНрд▓рд╛рдо рд╡реЗрдиреНрдЬреЗрдХ, рд╡рд┐рд╢реНрд░рд╡ рдЪреМрдзрд░реА, рдирдорди рдЧреЛрдпрд▓, рдЯреЙрдо рдмрд░реНрдЪ, рд╡рд┐рдЯрд╛рд▓реА рд▓рд┐рдкрдЪрд┐рдВрд╕реНрдХреА, рд╕рд░реНрдЧреЗрдИ рдПрдбреБрдиреЛрд╡, рдПрдбреМрд░реНрдб рджреНрд╡рд╛рд░рд╛ рдЧреНрд░реЗрд╡, рдорд╛рдЗрдХрд▓ рдФрд▓реА, рдЖрд░реНрдордВрдб рдЬреМрд▓рд┐рди рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[MarianMT](https://huggingface.co/docs/transformers/model_doc/marian)** J├╢rg рджреНрд╡рд╛рд░рд╛ [OPUS](http://opus.nlpl.eu/) рдбреЗрдЯрд╛ рд╕реЗ рдкреНрд░рд╢рд┐рдХреНрд╖рд┐рдд рдорд╢реАрдиреА рдЕрдиреБрд╡рд╛рдж рдореЙрдбрд▓ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ рдЯрд╛рдЗрдбреЗрдореИрди рджреНрд╡рд╛рд░рд╛ред [рдореИрд░рд┐рдпрди рдлреНрд░реЗрдорд╡рд░реНрдХ](https://marian-nmt.github.io/) рдорд╛рдЗрдХреНрд░реЛрд╕реЙрдлреНрдЯ рдЯреНрд░рд╛рдВрд╕рд▓реЗрдЯрд░ рдЯреАрдо рджреНрд╡рд╛рд░рд╛ рд╡рд┐рдХрд╕рд┐рддред
1. **[MarkupLM](https://huggingface.co/docs/transformers/model_doc/markuplm)** (рдорд╛рдЗрдХреНрд░реЛрд╕реЙрдлреНрдЯ рд░рд┐рд╕рд░реНрдЪ рдПрд╢рд┐рдпрд╛ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [рдорд╛рд░реНрдХрдЕрдкрдПрд▓рдПрдо: рд╡рд┐рдЬреБрдЕрд▓реА-рд░рд┐рдЪ рдбреЙрдХреНрдпреВрдореЗрдВрдЯ рдЕрдВрдбрд░рд╕реНрдЯреИрдВрдбрд┐рдВрдЧ рдХреЗ рд▓рд┐рдП рдЯреЗрдХреНрд╕реНрдЯ рдФрд░ рдорд╛рд░реНрдХрдЕрдк рд▓реИрдВрдЧреНрд╡реЗрдЬ рдХрд╛ рдкреНрд░реА-рдЯреНрд░реЗрдирд┐рдВрдЧ] (https://arxiv.org/abs/2110.08518) рдЬреБрдирд▓реЙрдиреНрдЧ рд▓реА, рдпрд┐рд╣реЗрдВрдЧ рдЬреВ, рд▓реЗрдИ рдХреБрдИ, рдлреБрд░реБ рджреНрд╡рд╛рд░рд╛ рд╡реА рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[Mask2Former](https://huggingface.co/docs/transformers/model_doc/mask2former)** (FAIR and UIUC рд╕реЗ) Bowen Cheng, Ishan Misra, Alexander G. Schwing, Alexander Kirillov, Rohit Girdhar. рджреНрд╡рд╛рд░рд╛рдЕрдиреБрд╕рдВрдзрд╛рди рдкрддреНрд░ [Masked-attention Mask Transformer for Universal Image Segmentation](https://arxiv.org/abs/2112.01527) рдХреЗ рд╕рд╛рде рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЧрдпрд╛
1. **[MaskFormer](https://huggingface.co/docs/transformers/model_doc/maskformer)** (рдореЗрдЯрд╛ рдФрд░ UIUC рд╕реЗ) рдкреЗрдкрд░ рдХреЗ рд╕рд╛рде рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЧрдпрд╛ [рдкреНрд░рддрд┐-рдкрд┐рдХреНрд╕реЗрд▓ рд╡рд░реНрдЧреАрдХрд░рдг рд╡рд╣ рд╕рдм рдирд╣реАрдВ рд╣реИ рдЬрд┐рд╕рдХреА рдЖрдкрдХреЛ рд╕рд┐рдореЗрдВрдЯрд┐рдХ рд╕реЗрдЧрдореЗрдВрдЯреЗрд╢рди рдХреА рдЖрд╡рд╢реНрдпрдХрддрд╛ рд╣реИ] (https://arxiv.org/abs/2107.06278) рдмреЛрд╡реЗрди рдЪреЗрдВрдЧ, рдЕрд▓реЗрдХреНрдЬреЗрдВрдбрд░ рдЬреА. рд╢реНрд╡рд┐рдВрдЧ, рдЕрд▓реЗрдХреНрдЬреЗрдВрдбрд░ рдХрд┐рд░рд┐рд▓реЛрд╡ рджреНрд╡рд╛рд░рд╛ >>>>>> рд░рд┐рдмреЗрд╕ рдареАрдХ рдХрд░реЗрдВ
2023-04-19 22:03:57 +08:00
1. **[MatCha](https://huggingface.co/docs/transformers/model_doc/matcha)** (Google AI рд╕реЗ) Fangyu Liu, Francesco Piccinno, Syrine Krichene, Chenxi Pang, Kenton Lee, Mandar Joshi, Yasemin Altun, Nigel Collier, Julian Martin Eisenschlos. рджреНрд╡рд╛рд░рд╛рдЕрдиреБрд╕рдВрдзрд╛рди рдкрддреНрд░ [MatCha: Enhancing Visual Language Pretraining with Math Reasoning and Chart Derendering](https://arxiv.org/abs/2212.09662) рдХреЗ рд╕рд╛рде рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЧрдпрд╛
1. **[mBART](https://huggingface.co/docs/transformers/model_doc/mbart)** (рдлреЗрд╕рдмреБрдХ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [рдиреНрдпреВрд░рд▓ рдорд╢реАрди рдЯреНрд░рд╛рдВрд╕рд▓реЗрд╢рди рдХреЗ рд▓рд┐рдП рдорд▓реНрдЯреАрд▓рд┐рдВрдЧреБрдЕрд▓ рдбреАрдиреЛрдЗрдЬрд┐рдВрдЧ рдкреНрд░реА-рдЯреНрд░реЗрдирд┐рдВрдЧ](https://arxiv. org/abs/2001.08210) рдпрд┐рдирд╣рд╛рди рд▓рд┐рдпреВ, рдЬрд┐рдпрд╛рддрд╛рдУ рдЧреБ, рдирдорди рдЧреЛрдпрд▓, рдЬрд┐рдпрд╛рди рд▓реА, рд╕рд░реНрдЧреЗрдИ рдПрдбреБрдиреЛрд╡, рдорд╛рд░реНрдЬрди рдЧрд╝рдЬрд╝рд╡рд┐рдирд┐рдиреЗрдЬрд╛рдж, рдорд╛рдЗрдХ рд▓реБрдИрд╕, рд▓реНрдпреВрдХ рдЬрд╝реЗрдЯрд▓рдореЙрдпрд░ рджреНрд╡рд╛рд░рд╛ред
1. **[mBART-50](https://huggingface.co/docs/transformers/model_doc/mbart)** (рдлреЗрд╕рдмреБрдХ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [рдПрдХреНрд╕реНрдЯреЗрдВрд╕рд┐рдмрд▓ рдмрд╣реБрднрд╛рд╖реА рдкреНрд░реАрдЯреНрд░реЗрдирд┐рдВрдЧ рдФрд░ рдлрд╛рдЗрдирдЯреНрдпреВрдирд┐рдВрдЧ рдХреЗ рд╕рд╛рде рдмрд╣реБрднрд╛рд╖реА рдЕрдиреБрд╡рд╛рдж](https://arxiv рдпреБрдХрд┐рдВрдЧ рдЯреИрдВрдЧ, рдЪрд╛рдЙ рдЯреНрд░рд╛рди, рдЬрд┐рдпрд╛рди рд▓реА, рдкреЗрдВрдЧ-рдЬреЗрди рдЪреЗрди, рдирдорди рдЧреЛрдпрд▓, рд╡рд┐рд╢реНрд░рд╡ рдЪреМрдзрд░реА, рдЬрд┐рдпрд╛рддрд╛рдУ рдЧреБ, рдПрдВрдЬреЗрд▓рд╛ рдлреИрди рджреНрд╡рд╛рд░рд╛ .org/abs/2008.00401)ред
2023-04-19 22:03:57 +08:00
1. **[MEGA](https://huggingface.co/docs/transformers/model_doc/mega)** (Facebook рд╕реЗ) Xuezhe Ma, Chunting Zhou, Xiang Kong, Junxian He, Liangke Gui, Graham Neubig, Jonathan May, and Luke Zettlemoyer. рджреНрд╡рд╛рд░рд╛рдЕрдиреБрд╕рдВрдзрд╛рди рдкрддреНрд░ [Mega: Moving Average Equipped Gated Attention](https://arxiv.org/abs/2209.10655) рдХреЗ рд╕рд╛рде рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЧрдпрд╛
1. **[Megatron-BERT](https://huggingface.co/docs/transformers/model_doc/megatron-bert)** (NVIDIA рд╕реЗ) рдХрд╛рдЧрдЬ рдХреЗ рд╕рд╛рде [Megatron-LM: рдореЙрдбрд▓ рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрд░рдХреЗ рдмрд╣реБ-рдЕрд░рдм рдкреИрд░рд╛рдореАрдЯрд░ рднрд╛рд╖рд╛ рдореЙрдбрд▓ рдХрд╛ рдкреНрд░рд╢рд┐рдХреНрд╖рдг Parallelism](https://arxiv.org/abs/1909.08053) рдореЛрд╣рдореНрдордж рд╢реЛрдПрдмреА, рдореЛрд╕реНрдЯреЛрдлрд╛ рдкрдЯрд╡рд╛рд░реА, рд░рд╛рдЙрд▓ рдкреБрд░реА, рдкреИрдЯреНрд░рд┐рдХ рд▓реЗрдЧреНрд░реЗрд╕реНрд▓реЗ, рдЬреЗрд░реЗрдб рдХреИрд╕реНрдкрд░ рдФрд░ рдмреНрд░рд╛рдпрди рдХреИрдЯрд╛рдирдЬрд╝рд╛рд░реЛ рджреНрд╡рд╛рд░рд╛ред
1. **[Megatron-GPT2](https://huggingface.co/docs/transformers/model_doc/megatron_gpt2)** (NVIDIA рд╕реЗ) рд╕рд╛рде рд╡рд╛рд▓рд╛ рдкреЗрдкрд░ [Megatron-LM: рдЯреНрд░реЗрдирд┐рдВрдЧ рдорд▓реНрдЯреА-рдмрд┐рд▓рд┐рдпрди рдкреИрд░рд╛рдореАрдЯрд░ рд▓реИрдВрдЧреНрд╡реЗрдЬ рдореЙрдбрд▓реНрд╕ рдпреВрдЬрд┐рдВрдЧ рдореЙрдбрд▓ рдкреИрд░реЗрд▓рд▓рд┐рдЬрд╝реНрдо] (https://arxiv.org/abs/1909.08053) рдореЛрд╣рдореНрдордж рд╢реЛрдПрдмреА, рдореЛрд╕реНрдЯреЛрдлрд╛ рдкрдЯрд╡рд╛рд░реА, рд░рд╛рдЙрд▓ рдкреБрд░реА, рдкреИрдЯреНрд░рд┐рдХ рд▓реЗрдЧреНрд░реЗрд╕реНрд▓реЗ, рдЬреЗрд░реЗрдб рдХреИрд╕реНрдкрд░ рдФрд░ рдмреНрд░рд╛рдпрди рдХреИрдЯрд╛рдирдЬрд╝рд╛рд░реЛ рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
2023-03-15 01:49:10 +08:00
1. **[MGP-STR](https://huggingface.co/docs/transformers/model_doc/mgp-str)** (Alibaba Research рд╕реЗ) Peng Wang, Cheng Da, and Cong Yao. рджреНрд╡рд╛рд░рд╛рдЕрдиреБрд╕рдВрдзрд╛рди рдкрддреНрд░ [Multi-Granularity Prediction for Scene Text Recognition](https://arxiv.org/abs/2209.03592) рдХреЗ рд╕рд╛рде рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЧрдпрд╛
1. **[mLUKE](https://huggingface.co/docs/transformers/model_doc/mluke)** (рдлреНрд░реЙрдо Studio Ousia) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [mLUKE: рдж рдкрд╛рд╡рд░ рдСрдл рдПрдВрдЯрд┐рдЯреА рд░рд┐рдкреНрд░реЗрдЬреЗрдВрдЯреЗрд╢рди рдЗрди рдорд▓реНрдЯреАрд▓рд┐рдВрдЧреБрдЕрд▓ рдкреНрд░реАрдЯреНрд░реЗрдиреНрдб рд▓реИрдВрдЧреНрд╡реЗрдЬ рдореЙрдбрд▓реНрд╕](https://arxiv.org/abs/2110.08151) рд░рдпреЛрдХрди рд░реА, рдЗрдХреБрдпрд╛ рдпрд╛рдорд╛рдбрд╛, рдФрд░ рдпреЛрд╢рд┐рдорд╛рд╕рд╛ рддреНрд╕реБрд░реЛрдХрд╛ рджреНрд╡рд╛рд░рд╛ред
1. **[MobileBERT](https://huggingface.co/docs/transformers/model_doc/mobilebert)** (рд╕реАрдПрдордпреВ/рдЧреВрдЧрд▓ рдмреНрд░реЗрди рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдХрд╛рдЧрдЬ [рдореЛрдмрд╛рдЗрд▓рдмрд░реНрдЯ: рд╕рдВрд╕рд╛рдзрди-рд╕реАрдорд┐рдд рдЙрдкрдХрд░рдгреЛрдВ рдХреЗ рд▓рд┐рдП рдПрдХ рдХреЙрдореНрдкреИрдХреНрдЯ рдЯрд╛рд╕реНрдХ-рдЕрдЬреНрдЮреЗрдп рдмреАрдИрдЖрд░рдЯреА] (https://arxiv.org/abs/2004.02984) Zhiqing Sun, Hongkun Yu, Xiaodan Song, Renjie Liu, Yiming Yang, рдФрд░ Denny Zhou рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[MobileNetV1](https://huggingface.co/docs/transformers/model_doc/mobilenet_v1)** (from Google Inc.) released with the paper [MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications](https://arxiv.org/abs/1704.04861) by Andrew G. Howard, Menglong Zhu, Bo Chen, Dmitry Kalenichenko, Weijun Wang, Tobias Weyand, Marco Andreetto, Hartwig Adam.
1. **[MobileNetV2](https://huggingface.co/docs/transformers/model_doc/mobilenet_v2)** (from Google Inc.) released with the paper [MobileNetV2: Inverted Residuals and Linear Bottlenecks](https://arxiv.org/abs/1801.04381) by Mark Sandler, Andrew Howard, Menglong Zhu, Andrey Zhmoginov, Liang-Chieh Chen.
1. **[MobileViT](https://huggingface.co/docs/transformers/model_doc/mobilevit)** (Apple рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдХрд╛рдЧрдЬ [MobileViT: рд▓рд╛рдЗрдЯ-рд╡реЗрдЯ, рдЬрдирд░рд▓-рдкрд░реНрдкрд╕, рдФрд░ рдореЛрдмрд╛рдЗрд▓-рдлреНрд░реЗрдВрдбрд▓реА рд╡рд┐рдЬрди рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░] (https://arxiv.org/abs/2110.02178) рд╕рдЪрд┐рди рдореЗрд╣рддрд╛ рдФрд░ рдореЛрд╣рдореНрдордж рд░рд╕реНрддрдЧрд░реА рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[MPNet](https://huggingface.co/docs/transformers/model_doc/mpnet)** (from Microsoft Research) released with the paper [MPNet: Masked and Permuted Pre-training for Language Understanding](https://arxiv.org/abs/2004.09297) by Kaitao Song, Xu Tan, Tao Qin, Jianfeng Lu, Tie-Yan Liu.
1. **[MT5](https://huggingface.co/docs/transformers/model_doc/mt5)** (Google AI рд╕реЗ) рд╕рд╛рде рд╡рд╛рд▓рд╛ рдкреЗрдкрд░ [mT5: рдПрдХ рд╡реНрдпрд╛рдкрдХ рдмрд╣реБрднрд╛рд╖реА рдкреВрд░реНрд╡-рдкреНрд░рд╢рд┐рдХреНрд╖рд┐рдд рдЯреЗрдХреНрд╕реНрдЯ-рдЯреВ-рдЯреЗрдХреНрд╕реНрдЯ рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░]( https://arxiv.org/abs/2010.11934) рд▓рд┐рдВрдЯрд┐рдВрдЧ рдЬрд╝реВ, рдиреЛрдЖ рдХреЙрдиреНрд╕рдЯреЗрдВрдЯ, рдПрдбрдо рд░реЙрдмрд░реНрдЯреНрд╕, рдорд┐рд╣рд┐рд░ рдХрд╛рд▓реЗ, рд░рд╛рдореА рдЕрд▓-рд░рдлреВ, рдЖрджрд┐рддреНрдп рд╕рд┐рджреНрдзрд╛рдВрдд, рдЖрджрд┐рддреНрдп рдмрд░реБрдЖ, рдХреЙрд▓рд┐рди рд░реИрдлреЗрд▓ рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[MVP](https://huggingface.co/docs/transformers/model_doc/mvp)** (from RUC AI Box) released with the paper [MVP: Multi-task Supervised Pre-training for Natural Language Generation](https://arxiv.org/abs/2206.12131) by Tianyi Tang, Junyi Li, Wayne Xin Zhao and Ji-Rong Wen.
1. **[NAT](https://huggingface.co/docs/transformers/model_doc/nat)** (from SHI Labs) released with the paper [Neighborhood Attention Transformer](https://arxiv.org/abs/2204.07143) by Ali Hassani, Steven Walton, Jiachen Li, Shen Li, and Humphrey Shi.
1. **[Nezha](https://huggingface.co/docs/transformers/model_doc/nezha)** (рд╣реБрдЖрд╡реЗрдИ рдиреВрд╣ рдХреЗ рдЖрд░реНрдХ рд▓реИрдм рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдХрд╛рдЧрдЬрд╝ [NEZHA: рдЪреАрдиреА рднрд╛рд╖рд╛ рд╕рдордЭ рдХреЗ рд▓рд┐рдП рддрдВрддреНрд░рд┐рдХрд╛ рдкреНрд░рд╛рд╕рдВрдЧрд┐рдХ рдкреНрд░рддрд┐рдирд┐рдзрд┐рддреНрд╡](https :/ /arxiv.org/abs/1909.00204) рдЬреБрдиреНрдХрд┐рдЙ рд╡реЗрдИ, рдЬрд╝рд┐рдпрд╛рдУрдЬрд╝реЗ рд░реЗрди, рдЬрд╝рд┐рдЖрдУрдЧреБрдЖрдВрдЧ рд▓реА, рд╡реЗрдирдпреЛрдВрдЧ рд╣реБрдЖрдВрдЧ, рдпреА рд▓рд┐рдпрд╛рдУ, рдпрд╛рд╢реЗрдВрдЧ рд╡рд╛рдВрдЧ, рдЬрд┐рдпрд╛рд╢реВ рд▓рд┐рди, рд╢рд┐рди рдЬрд┐рдпрд╛рдВрдЧ, рдЬрд┐рдУ рдЪреЗрди рдФрд░ рдХреБрди рд▓рд┐рдпреВ рджреНрд╡рд╛рд░рд╛ред
1. **[NLLB](https://huggingface.co/docs/transformers/model_doc/nllb)** (рдлреНрд░реЙрдо рдореЗрдЯрд╛) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [рдиреЛ рд▓реИрдВрдЧреНрд╡реЗрдЬ рд▓реЗрдлреНрдЯ рдмрд┐рд╣рд╛рдЗрдВрдб: рд╕реНрдХреЗрд▓рд┐рдВрдЧ рд╣реНрдпреВрдорди-рд╕реЗрдВрдЯреЗрдб рдорд╢реАрди рдЯреНрд░рд╛рдВрд╕рд▓реЗрд╢рди] (https://arxiv.org/abs/2207.04672) рдПрдирдПрд▓рдПрд▓рдмреА рдЯреАрдо рджреНрд╡рд╛рд░рд╛ рдкреНрд░рдХрд╛рд╢рд┐рддред
2023-04-19 22:03:57 +08:00
1. **[NLLB-MOE](https://huggingface.co/docs/transformers/model_doc/nllb-moe)** (Meta рд╕реЗ) the NLLB team. рджреНрд╡рд╛рд░рд╛рдЕрдиреБрд╕рдВрдзрд╛рди рдкрддреНрд░ [No Language Left Behind: Scaling Human-Centered Machine Translation](https://arxiv.org/abs/2207.04672) рдХреЗ рд╕рд╛рде рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЧрдпрд╛
1. **[Nystr├╢mformer](https://huggingface.co/docs/transformers/model_doc/nystromformer)** (рд╡рд┐рд╕реНрдХреЙрдиреНрд╕рд┐рди рд╡рд┐рд╢реНрд╡рд╡рд┐рджреНрдпрд╛рд▓рдп - рдореИрдбрд┐рд╕рди рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдХрд╛рдЧрдЬ [Nystr├╢mformer: A Nystr├╢m- рдЖрдзрд╛рд░рд┐рдд рдПрд▓реНрдЧреЛрд░рд┐рдердо рдЖрддреНрдо-рдзреНрдпрд╛рди рдХрд╛ рдЕрдиреБрдорд╛рди рд▓рдЧрд╛рдиреЗ рдХреЗ рд▓рд┐рдП ](https://arxiv.org/abs/2102.03902) рдпреБрдирдпрд╛рдВрдЧ рдЬрд╝рд┐рдУрдВрдЧ, рдЭрд╛рдирдкреЗрдВрдЧ рдЬрд╝реЗрдВрдЧ, рд░реБрджреНрд░рд╕рд┐рд╕ рдЪрдХреНрд░рд╡рд░реНрддреА, рдорд┐рдВрдЧрдХреНрд╕рд┐рдВрдЧ рдЯреИрди, рдЧреНрд▓реЗрди рдлрдВрдЧ, рдпрд┐рди рд▓реА, рд╡рд┐рдХрд╛рд╕ рд╕рд┐рдВрд╣ рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[OneFormer](https://huggingface.co/docs/transformers/model_doc/oneformer)** (SHI Labs рд╕реЗ) рдкреЗрдкрд░ [OneFormer: One Transformer to Rule Universal Image Segmentation](https://arxiv.org/abs/2211.06220) рдЬрд┐рддреЗрд╢ рдЬреИрди, рдЬрд┐рдЖрдЪреЗрди рд▓реА, рдорд╛рдВрдЧрдЯрд┐рдХ рдЪрд┐рдЙ, рдЕрд▓реА рд╣рд╕рдиреА, рдирд┐рдХрд┐рддрд╛ рдУрд░рд▓реЛрд╡, рд╣рдореНрдлреНрд░реА рд╢рд┐ рдХреЗ рджреНрд╡рд╛рд░рд╛ рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЧрдпрд╛ рд╣реИред
1. **[OPT](https://huggingface.co/docs/transformers/master/model_doc/opt)** (from Meta AI) released with the paper [OPT: Open Pre-trained Transformer Language Models](https://arxiv.org/abs/2205.01068) by Susan Zhang, Stephen Roller, Naman Goyal, Mikel Artetxe, Moya Chen, Shuohui Chen et al.
1. **[OWL-ViT](https://huggingface.co/docs/transformers/model_doc/owlvit)** (Google AI рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдХрд╛рдЧрдЬ [рд╡рд┐рдЬрд╝рди рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░реНрд╕ рдХреЗ рд╕рд╛рде рд╕рд┐рдВрдкрд▓ рдУрдкрди-рд╡реЛрдХреИрдмреБрд▓рд░реА рдСрдмреНрдЬреЗрдХреНрдЯ рдбрд┐рдЯреЗрдХреНрд╢рди](https:/ /arxiv.org/abs/2205.06230) рдореИрдерд┐рдпрд╛рд╕ рдорд┐рдВрдбрд░рд░, рдПрд▓реЗрдХреНрд╕реА рдЧреНрд░рд┐рдЯреНрд╕реЗрдВрдХреЛ, рдСрд╕реНрдЯрд┐рди рд╕реНрдЯреЛрди, рдореИрдХреНрд╕рд┐рдо рдиреНрдпреВрдореИрди, рдбрд┐рд░реНрдХ рд╡реАрд╕реЗрдирдмреЛрд░реНрди, рдПрд▓реЗрдХреНрд╕реА рдбреЛрд╕реЛрд╡рд┐рддреНрд╕реНрдХреА, рдЕрд░рд╡рд┐рдВрдж рдорд╣реЗрдВрджреНрд░рди, рдЕрдиреБрд░рд╛рдЧ рдЕрд░реНрдирдм, рдореБрд╕реНрддрдлрд╛ рджреЗрд╣рдШрд╛рдиреА, рдЬрд╝реБрдУрд░рди рд╢реЗрди, рдЬрд┐рдУ рд╡рд╛рдВрдЧ, рдЬрд╝рд┐рдпрд╛рдУрд╣реБрдЖ рдЭрд╛рдИ, рдереЙрдорд╕ рдХрд┐рдлрд╝, рдФрд░ рдиреАрд▓ рд╣реЙрд▓реНрд╕рдмреА рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[Pegasus](https://huggingface.co/docs/transformers/model_doc/pegasus)** (from Google) released with the paper [PEGASUS: Pre-training with Extracted Gap-sentences for Abstractive Summarization](https://arxiv.org/abs/1912.08777) by Jingqing Zhang, Yao Zhao, Mohammad Saleh and Peter J. Liu.
1. **[PEGASUS-X](https://huggingface.co/docs/transformers/model_doc/pegasus_x)** (Google рдХреА рдУрд░ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рджрд┐рдпрд╛ рдЧрдпрд╛ рдкреЗрдкрд░ [рд▓рдВрдмреЗ рдЗрдирдкреБрдЯ рд╕рд╛рд░рд╛рдВрд╢ рдХреЗ рд▓рд┐рдП рдЯреНрд░рд╛рдВрд╕рдлрд╝реЙрд░реНрдорд░реЛрдВ рдХреЛ рдмреЗрд╣рддрд░ рддрд░реАрдХреЗ рд╕реЗ рдПрдХреНрд╕рдЯреЗрдВрдб рдХрд░рдирд╛](https://arxiv .org/abs/2208.04347) рдЬреЗрд╕рди рдлрд╛рдВрдЧ, рдпрд╛рдУ рдЭрд╛рдУ, рдкреАрдЯрд░ рдЬреЗ рд▓рд┐рдпреВ рджреНрд╡рд╛рд░рд╛ред
1. **[Perceiver IO](https://huggingface.co/docs/transformers/model_doc/perceiver)** (рджреАрдкрдорд╛рдЗрдВрдб рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [рдкрд░реНрд╕реАрд╡рд░ рдЖрдИрдУ: рд╕рдВрд░рдЪрд┐рдд рдЗрдирдкреБрдЯ рдФрд░ рдЖрдЙрдЯрдкреБрдЯ рдХреЗ рд▓рд┐рдП рдПрдХ рд╕рд╛рдорд╛рдиреНрдп рд╡рд╛рд╕реНрддреБрдХрд▓рд╛] (https://arxiv.org/abs/2107.14795) рдПрдВрдбреНрд░рдпреВ рдЬреЗрдЧрд▓, рд╕реЗрдмреЗрд╕реНрдЯрд┐рдпрди рдмреЛрд░рдЧреНрдпреВрдб, рдЬреАрди-рдмреИрдкреНрдЯрд┐рд╕реНрдЯ рдЕрд▓рд╛рдпрд░рд╛рдХ, рдХрд╛рд░реНрд▓ рдбреЛрд░реНрд╢, рдХреИрдЯрд▓рд┐рди рдЗрдУрдиреЗрд╕реНрдХреБ, рдбреЗрд╡рд┐рдб рджреНрд╡рд╛рд░рд╛ рдбрд┐рдВрдЧ, рд╕реНрдХрдВрдж рдХреЛрдкреНрдкреБрд▓рд╛, рдбреИрдирд┐рдпрд▓ рдЬрд╝реЛрд░рд╛рди, рдПрдВрдбреНрд░рдпреВ рдмреНрд░реЙрдХ, рдЗрд╡рд╛рди рд╢реЗрд▓рд╣реИрдорд░, рдУрд▓рд┐рд╡рд┐рдпрд░ рд╣реЗрдирд╛рдл, рдореИрдереНрдпреВ рдПрдоред рдмреЛрдЯреНрд╡рд┐рдирд┐рдХ, рдПрдВрдбреНрд░рдпреВ рдЬрд╝рд┐рд╕рд░рдореИрди, рдУрд░рд┐рдУрд▓ рд╡рд┐рдирд┐рдпрд▓реНрд╕, рдЬреЛрдЖрдУ рдХреИрд░реЗрд░рд╛ рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[PhoBERT](https://huggingface.co/docs/transformers/model_doc/phobert)** (VinAI Research рд╕реЗ) рдХрд╛рдЧрдЬ рдХреЗ рд╕рд╛рде [PhoBERT: рд╡рд┐рдпрддрдирд╛рдореА рдХреЗ рд▓рд┐рдП рдкреВрд░реНрд╡-рдкреНрд░рд╢рд┐рдХреНрд╖рд┐рдд рднрд╛рд╖рд╛ рдореЙрдбрд▓](https://www .aclweb.org/anthology/2020.findings-emnlp.92/) рдбреИрдЯ рдХреНрд╡реЛрдХ рдЧреБрдпреЗрди рдФрд░ рдЕрдиреНрд╣ рддреБрдЖрди рдЧреБрдпреЗрди рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
2023-04-19 22:03:57 +08:00
1. **[Pix2Struct](https://huggingface.co/docs/transformers/model_doc/pix2struct)** (Google рд╕реЗ) Kenton Lee, Mandar Joshi, Iulia Turc, Hexiang Hu, Fangyu Liu, Julian Eisenschlos, Urvashi Khandelwal, Peter Shaw, Ming-Wei Chang, Kristina Toutanova. рджреНрд╡рд╛рд░рд╛рдЕрдиреБрд╕рдВрдзрд╛рди рдкрддреНрд░ [Pix2Struct: Screenshot Parsing as Pretraining for Visual Language Understanding](https://arxiv.org/abs/2210.03347) рдХреЗ рд╕рд╛рде рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЧрдпрд╛
1. **[PLBart](https://huggingface.co/docs/transformers/model_doc/plbart)** (UCLA NLP рд╕реЗ) рд╕рд╛рде рд╡рд╛рд▓рд╛ рдкреЗрдкрд░ [рдкреНрд░реЛрдЧреНрд░рд╛рдо рдЕрдВрдбрд░рд╕реНрдЯреИрдВрдбрд┐рдВрдЧ рдПрдВрдб рдЬреЗрдирд░реЗрд╢рди рдХреЗ рд▓рд┐рдП рдпреВрдирд┐рдлрд╛рдЗрдб рдкреНрд░реА-рдЯреНрд░реЗрдирд┐рдВрдЧ](https://arxiv .org/abs/2103.06333) рд╡рд╕реА рдЙрджреНрджреАрди рдЕрд╣рдордж, рд╕реИрдХрдд рдЪрдХреНрд░рд╡рд░реНрддреА, рдмреИрд╢рд╛рдЦреА рд░реЗ, рдХрд╛рдИ-рд╡реЗрдИ рдЪрд╛рдВрдЧ рджреНрд╡рд╛рд░рд╛ред
1. **[PoolFormer](https://huggingface.co/docs/transformers/model_doc/poolformer)** (from Sea AI Labs) released with the paper [MetaFormer is Actually What You Need for Vision](https://arxiv.org/abs/2111.11418) by Yu, Weihao and Luo, Mi and Zhou, Pan and Si, Chenyang and Zhou, Yichen and Wang, Xinchao and Feng, Jiashi and Yan, Shuicheng.
1. **[ProphetNet](https://huggingface.co/docs/transformers/model_doc/prophetnet)** (рдорд╛рдЗрдХреНрд░реЛрд╕реЙрдлреНрдЯ рд░рд┐рд╕рд░реНрдЪ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [ProphetNet: рдкреНрд░реЗрдбрд┐рдХреНрдЯрд┐рдВрдЧ рдлреНрдпреВрдЪрд░ рдПрди-рдЧреНрд░рд╛рдо рдлреЙрд░ рд╕реАрдХреНрд╡реЗрдВрд╕-рдЯреВ-рд╕реАрдХреНрд╡реЗрдВрд╕ рдкреНрд░реА-рдЯреНрд░реЗрдирд┐рдВрдЧ ](https://arxiv.org/abs/2001.04063) рдпреВ рдпрд╛рди, рд╡реАрдЬрд╝реЗрди рдХреНрдпреВрдИ, рдпреЗрдпреБрди рдЧреЛрдВрдЧ, рджрдпрд╛рд╣реЗрдВрдЧ рд▓рд┐рдпреВ, рдирд╛рди рдбреБрдЖрди, рдЬрд┐рдЙрд╢реЗрдВрдЧ рдЪреЗрди, рд░реБрдУрдлрд╝реЗрдИ рдЭрд╛рдВрдЧ рдФрд░ рдорд┐рдВрдЧ рдЭреЛрдЙ рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[QDQBert](https://huggingface.co/docs/transformers/model_doc/qdqbert)** (NVIDIA рд╕реЗ) рд╕рд╛рде рд╡рд╛рд▓рд╛ рдкреЗрдкрд░ [рдбреАрдк рд▓рд░реНрдирд┐рдВрдЧ рдЗрдВрдлрд╝реЗрдХреНрд╢рди рдХреЗ рд▓рд┐рдП рдЗрдВрдЯреАрдЬрд░ рдХреНрд╡рд╛рдВрдЯрд┐рдЬрд╝реЗрд╢рди: рдкреНрд░рд┐рдВрд╕рд┐рдкрд▓реНрд╕ рдПрдВрдб рдПрдореНрдкрд┐рд░рд┐рдХрд▓ рдЗрд╡реИрд▓реНрдпреВрдПрд╢рди](https:// arxiv.org/abs/2004.09602) рд╣рд╛рдУ рд╡реВ, рдкреИрдЯреНрд░рд┐рдХ рдЬреБрдб, рдЬрд┐рдЖрдУрдЬреА рдЭрд╛рдВрдЧ, рдорд┐рдЦрд╛рдЗрд▓ рдЗрд╕реЗрд╡ рдФрд░ рдкреЙрд▓рд┐рдпрд╕ рдорд╛рдЗрдХреЗрд╡рд┐рд╕рд┐рдпрд╕ рджреНрд╡рд╛рд░рд╛ред
1. **[RAG](https://huggingface.co/docs/transformers/model_doc/rag)** (рдлреЗрд╕рдмреБрдХ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдХрд╛рдЧрдЬ [рд░рд┐рдЯреНрд░реАрд╡рд▓-рдСрдЧрдореЗрдВрдЯреЗрдб рдЬреЗрдирд░реЗрд╢рди рдлреЙрд░ рдиреЙрд▓реЗрдЬ-рдЗрдВрдЯреЗрдВрд╕рд┐рд╡ рдПрдирдПрд▓рдкреА рдЯрд╛рд╕реНрдХ](https://arxiv .org/abs/2005.11401) рдкреИрдЯреНрд░рд┐рдХ рд▓реБрдИрд╕, рдПрдерди рдкреЗрд░реЗрдЬрд╝, рдЕрд▓реЗрдХреНрдЬреЗрдВрдбреНрд░рд╛ рдкрд┐рдХреНрдЯрд╕, рдлреИрдмрд┐рдпреЛ рдкреЗрдЯреНрд░реЛрдиреА, рд╡реНрд▓рд╛рджрд┐рдореАрд░ рдХрд╛рд░рдкреБрдЦрд┐рди, рдирдорди рдЧреЛрдпрд▓, рд╣реЗрдирд░рд┐рдХ рдХреБрдЯрд▓рд░, рдорд╛рдЗрдХ рд▓реБрдИрд╕, рд╡реЗрди-рддрд╛рдЙ рдпрд┐рд╣, рдЯрд┐рдо рд░реЙрдХрдЯрд╛рд╢реЗрд▓, рд╕реЗрдмрд╕реНрдЯрд┐рдпрди рд░рд┐рдбреЗрд▓, рдбреМрд╡реЗ рдХреАрд▓рд╛ рджреНрд╡рд╛рд░рд╛ред
1. **[REALM](https://huggingface.co/docs/transformers/model_doc/realm.html)** (Google рдЕрдиреБрд╕рдВрдзрд╛рди рд╕реЗ) рдХреЗрд▓реНрд╡рд┐рди рдЧреБ, рдХреЗрдВрдЯрди рд▓реА, рдЬрд╝реЛрд░рд╛ рддреБрдВрдЧ, рдкрд╛рдиреБрдкреЛрдВрдЧ рдкрд╕реБрдкрдд рдФрд░ рдорд┐рдВрдЧ-рд╡реЗрдИ рдЪрд╛рдВрдЧ рджреНрд╡рд╛рд░рд╛ рд╕рд╛рде рдореЗрдВ рджрд┐рдпрд╛ рдЧрдпрд╛ рдкреЗрдкрд░ [REALM: рд░рд┐рдЯреНрд░реАрд╡рд▓-рдСрдЧрдореЗрдВрдЯреЗрдб рд▓реИрдВрдЧреНрд╡реЗрдЬ рдореЙрдбрд▓ рдкреНрд░реА-рдЯреНрд░реЗрдирд┐рдВрдЧ](https://arxiv.org/abs/2002.08909)ред
1. **[Reformer](https://huggingface.co/docs/transformers/model_doc/reformer)** (from Google Research) released with the paper [Reformer: The Efficient Transformer](https://arxiv.org/abs/2001.04451) by Nikita Kitaev, ┼Бukasz Kaiser, Anselm Levskaya.
1. **[RegNet](https://huggingface.co/docs/transformers/model_doc/regnet)** (META рд░рд┐рд╕рд░реНрдЪ рд╕реЗ) [рдбрд┐рдЬрд╝рд╛рдЗрдирд┐рдВрдЧ рдиреЗрдЯрд╡рд░реНрдХ рдбрд┐рдЬрд╝рд╛рдЗрди рд╕реНрдкреЗрд╕] (https://arxiv.org/) рдкреЗрдкрд░ рдХреЗ рд╕рд╛рде рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЧрдпрд╛ рдПрдмреНрд╕/2003.13678) рдЗрд▓рд┐рдЬрд╛ рд░рд╛рдбреЛрд╕рд╛рд╡реЛрд╡рд┐рдХ, рд░рд╛рдЬ рдкреНрд░рддреАрдХ рдХреЛрд╕рд╛рд░рд╛рдЬреВ, рд░реЙрд╕ рдЧрд┐рд░реНрд╢рд┐рдХ, рдХреИрдорд┐рдВрдЧ рд╣реА, рдкрд┐рдУрдЯрд░ рдбреЙрд▓рд░ рджреНрд╡рд╛рд░рд╛ред
1. **[RemBERT](https://huggingface.co/docs/transformers/model_doc/rembert)** (рдЧреВрдЧрд▓ рд░рд┐рд╕рд░реНрдЪ рд╕реЗ) рд╕рд╛рде рд╡рд╛рд▓рд╛ рдкреЗрдкрд░ [рдкреВрд░реНрд╡-рдкреНрд░рд╢рд┐рдХреНрд╖рд┐рдд рднрд╛рд╖рд╛ рдореЙрдбрд▓ рдореЗрдВ рдПрдореНрдмреЗрдбрд┐рдВрдЧ рдХрдкрд▓рд┐рдВрдЧ рдкрд░ рдкреБрдирд░реНрд╡рд┐рдЪрд╛рд░](https://arxiv .org/pdf/2010.12821.pdf) рд╣реНрдпреБрдВрдЧ рд╡реЛрди рдЪреБрдВрдЧ, рдерд┐рдмреЙрд▓реНрдЯ рдлрд╝реЗрд╡рд░реА, рд╣реЗрдирд░реА рддреНрд╕рд╛рдИ, рдПрдо. рдЬреЙрдирд╕рди, рд╕реЗрдмреЗрд╕реНрдЯрд┐рдпрди рд░реБрдбрд░ рджреНрд╡рд╛рд░рд╛ред
1. **[ResNet](https://huggingface.co/docs/transformers/model_doc/resnet)** (рдорд╛рдЗрдХреНрд░реЛрд╕реЙрдлреНрдЯ рд░рд┐рд╕рд░реНрдЪ рд╕реЗ) [рдбреАрдк рд░реЗрд╕рд┐рдбреБрдЕрд▓ рд▓рд░реНрдирд┐рдВрдЧ рдлреЙрд░ рдЗрдореЗрдЬ рд░рд┐рдХрдЧреНрдирд┐рд╢рди] (https://arxiv. org/abs/1512.03385) рдХреИрдорд┐рдВрдЧ рд╣реЗ, рдЬрд┐рдпрд╛рдВрдЧреНрдпреБ рдЭрд╛рдВрдЧ, рд╢рд╛рдУрдХрд┐рдВрдЧ рд░реЗрди, рдЬрд┐рдпрд╛рди рд╕рди рджреНрд╡рд╛рд░рд╛ред
1. **[RoBERTa](https://huggingface.co/docs/transformers/model_doc/roberta)** (рдлреЗрд╕рдмреБрдХ рд╕реЗ), рд╕рд╛рде рдореЗрдВ рдХрд╛рдЧрдЬ [рдордЬрдмреВрдд рд░реВрдк рд╕реЗ рдЕрдиреБрдХреВрд▓рд┐рдд BERT рдкреНрд░реАрдЯреНрд░реЗрдирд┐рдВрдЧ рджреГрд╖реНрдЯрд┐рдХреЛрдг](https://arxiv.org/abs /1907.11692) рдпрд┐рдирд╣рд╛рди рд▓рд┐рдпреВ, рдорд╛рдпрд▓ рдУрдЯ, рдирдорди рдЧреЛрдпрд▓, рдЬрд┐рдВрдЧрдлреЗрдИ рдбреВ, рдордВрджрд╛рд░ рдЬреЛрд╢реА, рдбреИрдирдХреА рдЪреЗрди, рдУрдорд░ рд▓реЗрд╡реА, рдорд╛рдЗрдХ рд▓реБрдИрд╕, рд▓реНрдпреВрдХ рдЬрд╝реЗрдЯрд▓рдореЙрдпрд░, рд╡реЗрд╕реЗрд▓рд┐рди рд╕реНрдЯреЛрдпрд╛рдиреЛрд╡ рджреНрд╡рд╛рд░рд╛ред
1. **[RoBERTa-PreLayerNorm](https://huggingface.co/docs/transformers/model_doc/roberta-prelayernorm)** (from Facebook) released with the paper [fairseq: A Fast, Extensible Toolkit for Sequence Modeling](https://arxiv.org/abs/1904.01038) by Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, Michael Auli.
1. **[RoCBert](https://huggingface.co/docs/transformers/model_doc/roc_bert)** (from WeChatAI) released with the paper [RoCBert: Robust Chinese Bert with Multimodal Contrastive Pretraining](https://aclanthology.org/2022.acl-long.65.pdf) by HuiSu, WeiweiShi, XiaoyuShen, XiaoZhou, TuoJi, JiaruiFang, JieZhou.
1. **[RoFormer](https://huggingface.co/docs/transformers/model_doc/roformer)** (рдЭреБрдИрдИ рдЯреЗрдХреНрдиреЛрд▓реЙрдЬреА рд╕реЗ), рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [рд░реЛрдлреЙрд░реНрдорд░: рд░реЛрдЯрд░реА рдкреЛрдЬрд┐рд╢рди рдПрдВрдмреЗрдбрд┐рдВрдЧ рдХреЗ рд╕рд╛рде рдПрдиреНрд╣рд╛рдВрд╕реНрдб рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░] (https://arxiv.org/pdf/2104.09864v1.pdf) рдЬрд┐рдпрд╛рдирд▓рд┐рди рд╕реБ рдФрд░ рдпреВ рд▓реВ рдФрд░ рд╢реЗрдВрдЧрдлреЗрдВрдЧ рдкреИрди рдФрд░ рдмреЛ рд╡реЗрди рдФрд░ рдпреБрдирдлреЗрдВрдЧ рд▓рд┐рдпреВ рджреНрд╡рд╛рд░рд╛ рдкреНрд░рдХрд╛рд╢рд┐рддред
1. **[SegFormer](https://huggingface.co/docs/transformers/model_doc/segformer)** (from NVIDIA) released with the paper [SegFormer: Simple and Efficient Design for Semantic Segmentation with Transformers](https://arxiv.org/abs/2105.15203) by Enze Xie, Wenhai Wang, Zhiding Yu, Anima Anandkumar, Jose M. Alvarez, Ping Luo.
1. **[Segment Anything](https://huggingface.co/docs/transformers/main/model_doc/sam)** (Meta AI рд╕реЗ) Alexander Kirillov, Eric Mintun, Nikhila Ravi, Hanzi Mao, Chloe Rolland, Laura Gustafson, Tete Xiao, Spencer Whitehead, Alex Berg, Wan-Yen Lo, Piotr Dollar, Ross Girshick. рджреНрд╡рд╛рд░рд╛рдЕрдиреБрд╕рдВрдзрд╛рди рдкрддреНрд░ [Segment Anything](https://arxiv.org/pdf/2304.02643v1.pdf) рдХреЗ рд╕рд╛рде рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЧрдпрд╛
1. **[SEW](https://huggingface.co/docs/transformers/model_doc/sew)** (ASAPP рд╕реЗ) рд╕рд╛рде рджреЗрдиреЗ рд╡рд╛рд▓рд╛ рдкреЗрдкрд░ [рднрд╛рд╖рдг рдкрд╣рдЪрд╛рди рдХреЗ рд▓рд┐рдП рдЕрдирд╕реБрдкрд░рд╡рд╛рдЗрдЬреНрдб рдкреНрд░реА-рдЯреНрд░реЗрдирд┐рдВрдЧ рдореЗрдВ рдкрд░рдлреЙрд░реНрдореЗрдВрд╕-рдПрдлрд┐рд╢рд┐рдПрдВрд╕реА рдЯреНрд░реЗрдб-рдСрдлреНрд╕](https ://arxiv.org/abs/2109.06870) рдлреЗрд▓рд┐рдХреНрд╕ рд╡реВ, рдХреНрд╡рд╛рдВрдЧрдпреБрди рдХрд┐рдо, рдЬрд┐рдВрдЧ рдкреИрди, рдХреНрдпреВ рд╣рд╛рди, рдХрд┐рд▓рд┐рдпрди рдХреНрдпреВ. рд╡реЗрдирдмрд░реНрдЧрд░, рдпреЛрд╡ рдЖрд░реНрдЯрдЬрд╝реА рджреНрд╡рд╛рд░рд╛ред
1. **[SEW-D](https://huggingface.co/docs/transformers/model_doc/sew_d)** (ASAPP рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [рднрд╛рд╖рдг рдкрд╣рдЪрд╛рди рдХреЗ рд▓рд┐рдП рдЕрдирд╕реБрдкрд░рд╡рд╛рдЗрдЬреНрдб рдкреНрд░реА-рдЯреНрд░реЗрдирд┐рдВрдЧ рдореЗрдВ рдкрд░рдлреЙрд░реНрдореЗрдВрд╕-рдПрдлрд┐рд╢рд┐рдПрдВрд╕реА рдЯреНрд░реЗрдб-рдСрдлреНрд╕] (https://arxiv.org/abs/2109.06870) рдлреЗрд▓рд┐рдХреНрд╕ рд╡реВ, рдХреНрд╡рд╛рдВрдЧрдпреБрди рдХрд┐рдо, рдЬрд┐рдВрдЧ рдкреИрди, рдХреНрдпреВ рд╣рд╛рди, рдХрд┐рд▓рд┐рдпрди рдХреНрдпреВ. рд╡реЗрдирдмрд░реНрдЧрд░, рдпреЛрдЖрд╡ рдЖрд░реНрдЯрдЬрд╝реА рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
2023-03-15 01:49:10 +08:00
1. **[SpeechT5](https://huggingface.co/docs/transformers/model_doc/speecht5)** (from Microsoft Research) released with the paper [SpeechT5: Unified-Modal Encoder-Decoder Pre-Training for Spoken Language Processing](https://arxiv.org/abs/2110.07205) by Junyi Ao, Rui Wang, Long Zhou, Chengyi Wang, Shuo Ren, Yu Wu, Shujie Liu, Tom Ko, Qing Li, Yu Zhang, Zhihua Wei, Yao Qian, Jinyu Li, Furu Wei.
1. **[SpeechToTextTransformer](https://huggingface.co/docs/transformers/model_doc/speech_to_text)** (рдлреЗрд╕рдмреБрдХ рд╕реЗ), рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [рдлреЗрдпрд░рд╕реЗрдХ S2T: рдлрд╛рд╕реНрдЯ рд╕реНрдкреАрдЪ-рдЯреВ-рдЯреЗрдХреНрд╕реНрдЯ рдореЙрдбрд▓рд┐рдВрдЧ рд╡рд┐рдж рдлреЗрдпрд░рд╕реЗрдХ](https: //arxiv.org/abs/2010.05171) рдЪрд╛рдВрдЧрд╣рд╛рди рд╡рд╛рдВрдЧ, рдпреВрдВ рддрд╛рдВрдЧ, рдЬреБрддрд╛рдИ рдорд╛, рдРрдиреА рд╡реВ, рджрд┐рдорд┐рддреНрд░реЛ рдУрдЦреЛрдирдХреЛ, рдЬреБрдЖрди рдкрд┐рдиреЛ рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛уАВ
1. **[SpeechToTextTransformer2](https://huggingface.co/docs/transformers/model_doc/speech_to_text_2)** (рдлреЗрд╕рдмреБрдХ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [рд▓рд╛рд░реНрдЬ-рд╕реНрдХреЗрд▓ рд╕реЗрд▓реНрдл- рдПрдВрдб рд╕реЗрдореА-рд╕реБрдкрд░рд╡рд╛рдЗрдЬреНрдб рд▓рд░реНрдирд┐рдВрдЧ рдлреЙрд░ рд╕реНрдкреАрдЪ рдЯреНрд░рд╛рдВрд╕рд▓реЗрд╢рди](https://arxiv.org/abs/2104.06678) рдЪрд╛рдВрдЧрд╣рд╛рди рд╡рд╛рдВрдЧ, рдРрдиреА рд╡реВ, рдЬреБрдЖрди рдкрд┐рдиреЛ, рдПрд▓реЗрдХреНрд╕реА рдмреЗрд╡рд╕реНрдХреА, рдорд╛рдЗрдХрд▓ рдФрд▓реА, рдПрд▓реЗрдХреНрд╕рд┐рд╕ рджреНрд╡рд╛рд░рд╛ Conneau рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[Splinter](https://huggingface.co/docs/transformers/model_doc/splinter)** (рддреЗрд▓ рдЕрд╡реАрд╡ рдпреВрдирд┐рд╡рд░реНрд╕рд┐рдЯреА рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [рд╕реНрдкреИрди рд╕рд┐рд▓реЗрдХреНрд╢рди рдХреЛ рдкреНрд░реА-рдЯреНрд░реЗрдирд┐рдВрдЧ рдХрд░рдХреЗ рдХреБрдЫ-рд╢реЙрдЯ рдХреНрд╡реЗрд╢реНрдЪрди рдЖрдВрд╕рд░рд┐рдВрдЧ](https:// arxiv.org/abs/2101.00438) рдУрд░рд┐ рд░рд╛рдо, рдпреБрд╡рд▓ рдХрд░реНрд╕реНрдЯрди, рдЬреЛрдирд╛рдерди рдмреЗрд░реЗрдВрдЯ, рдЕрдореАрд░ рдЧреНрд▓реЛрдмрд░реНрд╕рди, рдУрдорд░ рд▓реЗрд╡реА рджреНрд╡рд╛рд░рд╛ред
1. **[SqueezeBERT](https://huggingface.co/docs/transformers/model_doc/squeezebert)** (рдмрд░реНрдХрд▓реЗ рд╕реЗ) рдХрд╛рдЧрдЬ рдХреЗ рд╕рд╛рде [SqueezeBERT: рдХреБрд╢рд▓ рддрдВрддреНрд░рд┐рдХрд╛ рдиреЗрдЯрд╡рд░реНрдХ рдХреЗ рдмрд╛рд░реЗ рдореЗрдВ NLP рдХреЛ рдХрдВрдкреНрдпреВрдЯрд░ рд╡рд┐рдЬрд╝рди рдХреНрдпрд╛ рд╕рд┐рдЦрд╛ рд╕рдХрддрд╛ рд╣реИ?](https: //arxiv.org/abs/2006.11316) рдлреЙрд░реЗрд╕реНрдЯ рдПрди. рдЗрдирдбреЛрд▓рд╛, рдЕрд▓реНрдмрд░реНрдЯ рдИ. рд╢реЙ, рд░рд╡рд┐ рдХреГрд╖реНрдгрд╛, рдФрд░ рдХрд░реНрдЯ рдбрдмреНрд▓реНрдпреВ. рдХреЗрдЯрдЬрд╝рд░ рджреНрд╡рд╛рд░рд╛ред
1. **[Swin Transformer](https://huggingface.co/docs/transformers/model_doc/swin)** (рдорд╛рдЗрдХреНрд░реЛрд╕реЙрдлреНрдЯ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдХрд╛рдЧрдЬ [рд╕реНрд╡рд╛рдЗрди рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░: рд╢рд┐рдлреНрдЯреЗрдб рд╡рд┐рдВрдбреЛрдЬ рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрд░ рдкрджрд╛рдиреБрдХреНрд░рдорд┐рдд рд╡рд┐рдЬрди рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░](https://arxiv .org/abs/2103.14030) рдЬрд╝реА рд▓рд┐рдпреВ, рдпреБрдЯреЛрдВрдЧ рд▓рд┐рди, рдпреВ рдХрд╛рдУ, рд╣рд╛рди рд╣реВ, рдпрд┐рдХреНрд╕реБрдЖрди рд╡реЗрдИ, рдЭреЗрдВрдЧ рдЭрд╛рдВрдЧ, рд╕реНрдЯреАрдлрди рд▓рд┐рди, рдмреИрдирд┐рдВрдЧ рдЧреБрдУ рджреНрд╡рд╛рд░рд╛ред
1. **[Swin Transformer V2](https://huggingface.co/docs/transformers/model_doc/swinv2)** (Microsoft рд╕реЗ) рд╕рд╛рде рд╡рд╛рд▓рд╛ рдкреЗрдкрд░ [Swin Transformer V2: рд╕реНрдХреЗрд▓рд┐рдВрдЧ рдЕрдк рдХреИрдкреЗрд╕рд┐рдЯреА рдПрдВрдб рд░реЗрдЬреЛрд▓реНрдпреВрд╢рди](https:// рдЬрд╝реА рд▓рд┐рдпреВ, рд╣рд╛рди рд╣реВ, рдпреБрдЯреЛрдВрдЧ рд▓рд┐рди, рдЬрд╝реБрд▓рд┐рдЖрдВрдЧ рдпрд╛рдУ, рдЬрд╝реЗрдВрдбрд╛ рдЬрд╝реА, рдпрд┐рдХреНрд╕реБрдЖрди рд╡реЗрдИ, рдЬрд┐рдпрд╛ рдирд┐рдВрдЧ, рдпреВ рдХрд╛рдУ, рдЭреЗрдВрдЧ рдЭрд╛рдВрдЧ, рд▓реА рдбреЛрдВрдЧ, рдлреБрд░реБ рд╡реЗрдИ, рдмреИрдирд┐рдВрдЧ рдЧреБрдУ рджреНрд╡рд╛рд░рд╛ arxiv.org/abs/2111.09883ред
1. **[Swin2SR](https://huggingface.co/docs/transformers/model_doc/swin2sr)** (from University of W├╝rzburg) released with the paper [Swin2SR: SwinV2 Transformer for Compressed Image Super-Resolution and Restoration](https://arxiv.org/abs/2209.11345) by Marcos V. Conde, Ui-Jin Choi, Maxime Burchi, Radu Timofte.
1. **[SwitchTransformers](https://huggingface.co/docs/transformers/model_doc/switch_transformers)** (from Google) released with the paper [Switch Transformers: Scaling to Trillion Parameter Models with Simple and Efficient Sparsity](https://arxiv.org/abs/2101.03961) by William Fedus, Barret Zoph, Noam Shazeer.
1. **[T5](https://huggingface.co/docs/transformers/model_doc/t5)** (цЭешЗк Google AI)рдХреЙрд▓рд┐рди рд░реИрдлреЗрд▓ рдФрд░ рдиреЛрдо рд╢рдЬрд╝реАрд░ рдФрд░ рдПрдбрдо рд░реЙрдмрд░реНрдЯреНрд╕ рдФрд░ рдХреИрдерд░реАрди рд▓реА рдФрд░ рд╢рд░рдг рдирд╛рд░рдВрдЧ рдФрд░ рдорд╛рдЗрдХрд▓ рдордЯреЗрдирд╛ рджреНрд╡рд╛рд░рд╛ рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [рдПрдХ рдПрдХреАрдХреГрдд рдЯреЗрдХреНрд╕реНрдЯ-рдЯреВ-рдЯреЗрдХреНрд╕реНрдЯ рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░ рдХреЗ рд╕рд╛рде рд╕реНрдерд╛рдирд╛рдВрддрд░рдг рд╕реАрдЦрдиреЗ рдХреА рд╕реАрдорд╛ рдХреА рдЦреЛрдЬ] (https://arxiv.org/abs/1910.10683) рдФрд░ рдпрд╛рдВрдХреА рдЭреЛрдЙ рдФрд░ рд╡реЗрдИ рд▓реА рдФрд░ рдкреАрдЯрд░ рдЬреЗ рд▓рд┐рдпреВред
1. **[T5v1.1](https://huggingface.co/docs/transformers/model_doc/t5v1.1)** (Google AI рд╕реЗ) рд╕рд╛рде рд╡рд╛рд▓рд╛ рдкреЗрдкрд░ [google-research/text-to-text-transfer- рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░](https://github.com/google-research/text-to-text-transfer-transformer/blob/main/released_checkpoints.md#t511) рдХреЙрд▓рд┐рди рд░реИрдлреЗрд▓ рдФрд░ рдиреЛрдо рд╢рдЬрд╝реАрд░ рдФрд░ рдПрдбрдо рд░реЙрдмрд░реНрдЯреНрд╕ рдФрд░ рдХреИрдерд░реАрди рд▓реА рдФрд░ рд╢рд░рдг рдирд╛рд░рдВрдЧ рджреНрд╡рд╛рд░рд╛ рдФрд░ рдорд╛рдЗрдХрд▓ рдордЯреЗрдирд╛ рдФрд░ рдпрд╛рдВрдХреА рдЭреЛрдЙ рдФрд░ рд╡реЗрдИ рд▓реА рдФрд░ рдкреАрдЯрд░ рдЬреЗ рд▓рд┐рдпреВред
1. **[Table Transformer](https://huggingface.co/docs/transformers/model_doc/table-transformer)** (рдорд╛рдЗрдХреНрд░реЛрд╕реЙрдлреНрдЯ рд░рд┐рд╕рд░реНрдЪ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [рдкрдмрдЯреЗрдмрд▓реНрд╕-1рдПрдо: рдЯреВрд╡рд░реНрдбреНрд╕ рдХреЙрдореНрдкреНрд░рд┐рд╣реЗрдВрд╕рд┐рд╡ рдЯреЗрдмрд▓ рдПрдХреНрд╕рдЯреНрд░реИрдХреНрд╢рди рдлреНрд░реЙрдо рдЕрдирд╕реНрдЯреНрд░рдХреНрдЪрд░реНрдб рдбреЙрдХреНрдпреВрдореЗрдВрдЯреНрд╕ ](https://arxiv.org/abs/2110.00061) рдмреНрд░реИрдВрдбрди рд╕реНрдореЙрдХ, рд░реЛрд╣рд┐рдд рдкреЗрд╕рд╛рд▓рд╛, рд░реЙрдмрд┐рди рдЕрдмреНрд░рд╛рд╣рдо рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[TAPAS](https://huggingface.co/docs/transformers/model_doc/tapas)** (Google AI рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдХрд╛рдЧрдЬ [TAPAS: рдкреВрд░реНрд╡-рдкреНрд░рд╢рд┐рдХреНрд╖рдг рдХреЗ рдорд╛рдзреНрдпрдо рд╕реЗ рдХрдордЬреЛрд░ рдкрд░реНрдпрд╡реЗрдХреНрд╖рдг рддрд╛рд▓рд┐рдХрд╛ рдкрд╛рд░реНрд╕рд┐рдВрдЧ](https:// arxiv.org/abs/2004.02349) рдЬреЛрдирд╛рдерди рд╣рд░реНрдЬрд╝рд┐рдЧ, рдкрд╛рд╡реЗрд▓ рдХреНрд░рд┐рдЬрд╝рд┐рд╕реНрддреЛрдлрд╝ рдиреЛрд╡рд╛рдХ, рдереЙрдорд╕ рдореБрд▓рд░, рдлреНрд░рд╛рдВрд╕реЗрд╕реНрдХреЛ рдкрд┐рдХрд┐рдиреНрдиреЛ рдФрд░ рдЬреВрд▓рд┐рдпрди рдорд╛рд░реНрдЯрд┐рди рдИрд╕реЗрдиреНрдЪреНрд▓реЛрд╕ рджреНрд╡рд╛рд░рд╛ред
1. **[TAPEX](https://huggingface.co/docs/transformers/model_doc/tapex)** (рдорд╛рдЗрдХреНрд░реЛрд╕реЙрдлреНрдЯ рд░рд┐рд╕рд░реНрдЪ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [TAPEX: рдЯреЗрдмрд▓ рдкреНрд░реА-рдЯреНрд░реЗрдирд┐рдВрдЧ рдереНрд░реВ рд▓рд░реНрдирд┐рдВрдЧ рдЕ рдиреНрдпреВрд░рд▓ SQL рдПрдХреНрдЬрд╝реАрдХреНрдпреВрдЯрд░](https: //arxiv.org/abs/2107.07653) рдХрд┐рдпрд╛рди рд▓рд┐рдпреВ, рдмреЗрдИ рдЪреЗрди, рдЬрд┐рдпрд╛рдХреА рдЧреБрдУ, рдореЛрд░реНрдЯреЗрдЬрд╝рд╛ рдЬрд╝рд┐рдпрд╛рджреА, рдЬрд╝реЗрдХреА рд▓рд┐рди, рд╡реАрдЬрд╝реВ рдЪреЗрди, рдЬрд┐рдпрд╛рди-рдЧреБрдЖрдВрдЧ рд▓реВ рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[Time Series Transformer](https://huggingface.co/docs/transformers/model_doc/time_series_transformer)** (from HuggingFace).
1. **[TimeSformer](https://huggingface.co/docs/transformers/model_doc/timesformer)** (from Facebook) released with the paper [Is Space-Time Attention All You Need for Video Understanding?](https://arxiv.org/abs/2102.05095) by Gedas Bertasius, Heng Wang, Lorenzo Torresani.
1. **[Trajectory Transformer](https://huggingface.co/docs/transformers/model_doc/trajectory_transformers)** (from the University of California at Berkeley) released with the paper [Offline Reinforcement Learning as One Big Sequence Modeling Problem](https://arxiv.org/abs/2106.02039) by Michael Janner, Qiyang Li, Sergey Levine
1. **[Transformer-XL](https://huggingface.co/docs/transformers/model_doc/transfo-xl)** (Google/CMU рдХреА рдУрд░ рд╕реЗ) рдХрд╛рдЧрдЬ рдХреЗ рд╕рд╛рде [рд╕рдВрд╕реНрдХрд░рдг-рдПрдХреНрд╕: рдПрдХ рдмреНрд▓реЙрдЧ рдореЙрдбрд▓ рдЪреМрдХрд╕ рдЪреМрдХ рдореЙрдбрд▓ рдореЙрдбрд▓] (https://arxivorg/abs/1901.02860) рдХреНрд╡реЛрдХреЛрдХ рд╡реА. рд▓реЗ, рд░реБрд╕реНрд▓реИрди рд╕рд▓рд╛рдЦреБрддрджреА
1. **[TrOCR](https://huggingface.co/docs/transformers/model_doc/trocr)** (from Microsoft) released with the paper [TrOCR: Transformer-based Optical Character Recognition with Pre-trained Models](https://arxiv.org/abs/2109.10282) by Minghao Li, Tengchao Lv, Lei Cui, Yijuan Lu, Dinei Florencio, Cha Zhang, Zhoujun Li, Furu Wei.
2023-03-15 01:49:10 +08:00
1. **[TVLT](https://huggingface.co/docs/transformers/model_doc/tvlt)** (from UNC Chapel Hill) released with the paper [TVLT: Textless Vision-Language Transformer](https://arxiv.org/abs/2209.14156) by Zineng Tang, Jaemin Cho, Yixin Nie, Mohit Bansal.
[WIP] add SpeechT5 model (#18922) * make SpeechT5 model by copying Wav2Vec2 * add paper to docs * whoops added docs in wrong file * remove SpeechT5Tokenizer + put CTC back in the name * remove deprecated class * remove unused docstring * delete SpeechT5FeatureExtractor, use Wav2Vec2FeatureExtractor instead * remove classes we don't need right now * initial stab at speech encoder prenet * add more speech encoder prenet stuff * improve SpeechEncoderPrenet * add encoder (not finished yet) * add relative position bias to self-attention * add encoder CTC layers * fix formatting * add decoder from BART, doesn't work yet * make it work with generate loop * wrap the encoder into a speech encoder class * wrap the decoder in a text decoder class * changed my mind * changed my mind again ;-) * load decoder weights, make it work * add weights for text decoder postnet * add SpeechT5ForCTC model that uses only the encoder * clean up EncoderLayer and DecoderLayer * implement _init_weights in SpeechT5PreTrainedModel * cleanup config + Encoder and Decoder * add head + cross attention masks * improve doc comments * fixup * more cleanup * more fixup * TextDecoderPrenet works now, thanks Kendall * add CTC loss * add placeholders for other pre/postnets * add type annotation * fix freeze_feature_encoder * set padding tokens to 0 in decoder attention mask * encoder attention mask downsampling * remove features_pen calculation * disable the padding tokens thing again * fixup * more fixup * code review fixes * rename encoder/decoder wrapper classes * allow checkpoints to be loaded into SpeechT5Model * put encoder into wrapper for CTC model * clean up conversion script * add encoder for TTS model * add speech decoder prenet * add speech decoder post-net * attempt to reconstruct the generation loop * add speech generation loop * clean up generate_speech * small tweaks * fix forward pass * enable always dropout on speech decoder prenet * sort declaration * rename models * fixup * fix copies * more fixup * make consistency checker happy * add Seq2SeqSpectrogramOutput class * doc comments * quick note about loss and labels * add HiFi-GAN implementation (from Speech2Speech PR) * rename file * add vocoder to TTS model * improve vocoder * working on tokenizer * more better tokenizer * add CTC tokenizer * fix decode and batch_code in CTC tokenizer * fix processor * two processors and feature extractors * use SpeechT5WaveformFeatureExtractor instead of Wav2Vec2 * cleanup * more cleanup * even more fixup * notebooks * fix log-mel spectrograms * support reduction factor * fixup * shift spectrograms to right to create decoder inputs * return correct labels * add labels for stop token prediction * fix doc comments * fixup * remove SpeechT5ForPreTraining * more fixup * update copyright headers * add usage examples * add SpeechT5ProcessorForCTC * fixup * push unofficial checkpoints to hub * initial version of tokenizer unit tests * add slow test * fix failing tests * tests for CTC tokenizer * finish CTC tokenizer tests * processor tests * initial test for feature extractors * tests for spectrogram feature extractor * fixup * more fixup * add decorators * require speech for tests * modeling tests * more tests for ASR model * fix imports * add fake tests for the other models * fixup * remove jupyter notebooks * add missing SpeechT5Model tests * add missing tests for SpeechT5ForCTC * add missing tests for SpeechT5ForTextToSpeech * sort tests by name * fix Hi-Fi GAN tests * fixup * add speech-to-speech model * refactor duplicate speech generation code * add processor for SpeechToSpeech model * add usage example * add tests for speech-to-speech model * fixup * enable gradient checkpointing for SpeechT5FeatureEncoder * code review * push_to_hub now takes repo_id * improve doc comments for HiFi-GAN config * add missing test * add integration tests * make number of layers in speech decoder prenet configurable * rename variable * rename variables * add auto classes for TTS and S2S * REMOVE CTC!!! * S2S processor does not support save/load_pretrained * fixup * these models are now in an auto mapping * fix doc links * rename HiFiGAN to HifiGan, remove separate config file * REMOVE auto classes * there can be only one * fixup * replace assert * reformat * feature extractor can process input and target at same time * update checkpoint names * fix commit hash
2023-02-04 01:43:46 +08:00
1. **[UL2](https://huggingface.co/docs/transformers/model_doc/ul2)** (from Google Research) released with the paper [Unifying Language Learning Paradigms](https://arxiv.org/abs/2205.05131v1) by Yi Tay, Mostafa Dehghani, Vinh Q. Tran, Xavier Garcia, Dara Bahri, Tal Schuster, Huaixiu Steven Zheng, Neil Houlsby, Donald Metzler
1. **[UniSpeech](https://huggingface.co/docs/transformers/model_doc/unispeech)** (рдорд╛рдЗрдХреНрд░реЛрд╕реЙрдлреНрдЯ рд░рд┐рд╕рд░реНрдЪ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рджрд┐рдпрд╛ рдЧрдпрд╛ рдкреЗрдкрд░ [UniSpeech: рдпреВрдирд┐рдлрд╛рдЗрдб рд╕реНрдкреАрдЪ рд░рд┐рдкреНрд░реЗрдЬреЗрдВрдЯреЗрд╢рди рд▓рд░реНрдирд┐рдВрдЧ рд╡рд┐рдж рд▓реЗрдмрд▓реЗрдб рдПрдВрдб рдЕрдирд▓реЗрдмрд▓реНрдб рдбреЗрдЯрд╛](https:/ /arxiv.org/abs/2101.07597) рдЪреЗрдВрдЧрдИ рд╡рд╛рдВрдЧ, рдпреВ рд╡реВ, рдпрд╛рдУ рдХрд┐рдпрд╛рди, рдХреЗрдирд┐рдЪреА рдХреБрдорд╛рддрд╛рдиреА, рд╢реБрдЬреА рд▓рд┐рдпреВ, рдлреБрд░реБ рд╡реЗрдИ, рдорд╛рдЗрдХрд▓ рдЬрд╝реЗрдВрдЧ, рдЬрд╝реБрдПрджреЛрдВрдЧ рд╣реБрдЖрдВрдЧ рджреНрд╡рд╛рд░рд╛ред
1. **[UniSpeechSat](https://huggingface.co/docs/transformers/model_doc/unispeech-sat)** (рдорд╛рдЗрдХреНрд░реЛрд╕реЙрдлреНрдЯ рд░рд┐рд╕рд░реНрдЪ рд╕реЗ) рдХрд╛рдЧрдЬ рдХреЗ рд╕рд╛рде [UNISPEECH-SAT: рдпреВрдирд┐рд╡рд░реНрд╕рд▓ рд╕реНрдкреАрдЪ рд░рд┐рдкреНрд░реЗрдЬреЗрдВрдЯреЗрд╢рди рд▓рд░реНрдирд┐рдВрдЧ рд╡рд┐рдж рд╕реНрдкреАрдХрд░ рдЕрд╡реЗрдпрд░ рдкреНрд░реА-рдЯреНрд░реЗрдирд┐рдВрдЧ ](https://arxiv.org/abs/2110.05752) рд╕рд╛рдирдпреБрдЖрди рдЪреЗрди, рдпреВ рд╡реВ, рдЪреЗрдВрдЧреНрдпреА рд╡рд╛рдВрдЧ, рдЭреЗрдВрдЧрдпрд╛рдВрдЧ рдЪреЗрди, рдЭреВрдУ рдЪреЗрди, рд╢реБрдЬреА рд▓рд┐рдпреВ, рдЬрд┐рдпрд╛рди рд╡реВ, рдпрд╛рдУ рдХрд┐рдпрд╛рди, рдлреБрд░реБ рд╡реЗрдИ, рдЬрд┐рдиреНрдпреБ рд▓реА, рдЬрд┐рдпрд╛рдВрдЧрдЬрд╝рд╛рди рдпреВ рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[UPerNet](https://huggingface.co/docs/transformers/model_doc/upernet)** (from Peking University) released with the paper [Unified Perceptual Parsing for Scene Understanding](https://arxiv.org/abs/1807.10221) by Tete Xiao, Yingcheng Liu, Bolei Zhou, Yuning Jiang, Jian Sun.
1. **[VAN](https://huggingface.co/docs/transformers/model_doc/van)** (рд╕рд┐рдВрдШреБрдЖ рдпреВрдирд┐рд╡рд░реНрд╕рд┐рдЯреА рдФрд░ рдирдирдХрд╛рдИ рдпреВрдирд┐рд╡рд░реНрд╕рд┐рдЯреА рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [рд╡рд┐рдЬреБрдЕрд▓ рдЕрдЯреЗрдВрд╢рди рдиреЗрдЯрд╡рд░реНрдХ](https://arxiv.org/ pdf/2202.09741.pdf) рдореЗрдВрдЧ-рд╣рд╛рдУ рдЧреБрдУ, рдЪреЗрдВрдЧ-рдЬрд╝реЗ рд▓реВ, рдЭреЗрдВрдЧ-рдирд┐рдВрдЧ рд▓рд┐рдпреВ, рдорд┐рдВрдЧ-рдорд┐рдВрдЧ рдЪреЗрдВрдЧ, рд╢рд┐-рдорд┐рди рд╣реВ рджреНрд╡рд╛рд░рд╛ред
1. **[VideoMAE](https://huggingface.co/docs/transformers/model_doc/videomae)** (рдорд▓реНрдЯреАрдореАрдбрд┐рдпрд╛ рдХрдореНрдкреНрдпреВрдЯрд┐рдВрдЧ рдЧреНрд░реБрдк, рдирд╛рдирдЬрд┐рдВрдЧ рдпреВрдирд┐рд╡рд░реНрд╕рд┐рдЯреА рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [рд╡реАрдбрд┐рдпреЛрдПрдордПрдИ: рдорд╛рд╕реНрдХреНрдб рдСрдЯреЛрдПрдиреНрдХреЛрдбрд░ рд╕реНрд╡-рдкрд░реНрдпрд╡реЗрдХреНрд╖рд┐рдд рд╡реАрдбрд┐рдпреЛ рдкреНрд░реА-рдЯреНрд░реЗрдирд┐рдВрдЧ рдХреЗ рд▓рд┐рдП рдбреЗрдЯрд╛-рдХреБрд╢рд▓ рд╕реАрдЦрдиреЗ рд╡рд╛рд▓реЗ рд╣реИрдВ] (https://arxiv.org/abs/2203.12602) рдЬрд╝рд╛рди рдЯреЛрдВрдЧ, рдпрд┐рдмрд┐рдВрдЧ рд╕реЙрдиреНрдЧ, рдЬреБрдП рджреНрд╡рд╛рд░рд╛ рд╡рд╛рдВрдЧ, рд▓рд┐рдорд┐рди рд╡рд╛рдВрдЧ рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[ViLT](https://huggingface.co/docs/transformers/model_doc/vilt)** (NAVER AI Lab/Kakao Enterprise/Kakao Brain рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдХрд╛рдЧрдЬ [ViLT: Vision-and-Language Transformer рдмрд┐рдирд╛ рдХрдирд╡рд▓реНрд╢рди рдпрд╛ рд░реАрдЬрди рд╕реБрдкрд░рд╡рд┐рдЬрди](https://arxiv.org/abs/2102.03334) рд╡реЛрдирдЬреЗ рдХрд┐рдо, рдмреЛрдХреНрдпреВрдВрдЧ рд╕реЛрди, рдЗрд▓реНрдбреВ рдХрд┐рдо рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[Vision Transformer (ViT)](https://huggingface.co/docs/transformers/model_doc/vit)** (рдЧреВрдЧрд▓ рдПрдЖрдИ рд╕реЗ) рдХрд╛рдЧрдЬ рдХреЗ рд╕рд╛рде [рдПрдХ рдЗрдореЗрдЬ рдЗрдЬрд╝ рд╡рд░реНрде 16x16 рд╡рд░реНрдбреНрд╕: рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░реНрд╕ рдлреЙрд░ рдЗрдореЗрдЬ рд░рд┐рдХреЙрдЧреНрдирд┐рд╢рди рдПрдЯ рд╕реНрдХреЗрд▓](https://arxiv.org/abs/2010.11929) рдПрд▓реЗрдХреНрд╕реА рдбреЛрд╕реЛрд╡рд┐рддреНрд╕реНрдХреА, рд▓реБрдХрд╛рд╕ рдмреЗрдпрд░, рдЕрд▓реЗрдХреНрдЬреЗрдВрдбрд░ рдХреЛрд▓реЗрд╕рдирд┐рдХреЛрд╡, рдбрд┐рд░реНрдХ рд╡реАрд╕реЗрдирдмреЛрд░реНрди, рд╢рд┐рдпрд╛рдУрд╣реБрдЖ рдЭрд╛рдИ, рдереЙрдорд╕ рдЕрдирдЯрд░рдерд┐рдирд░, рдореБрд╕реНрддрдлрд╛ рджреЗрд╣рдШрд╛рдиреА, рдореИрдерд┐рдпрд╛рд╕ рдорд┐рдВрдбрд░рд░, рдЬреЙрд░реНрдЬ рд╣реЗрдЧреЛрд▓реНрдб, рд╕рд┐рд▓реНрд╡реЗрди рдЧреЗрд▓реА, рдЬреИрдХрдм рдЙрд╕реНрдЬрд╝рдХреЛрд░реЗрдЗрдЯ рджреНрд╡рд╛рд░рд╛ рд╣реЙрд▓реНрд╕рдмреА рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[VisualBERT](https://huggingface.co/docs/transformers/model_doc/visual_bert)** (UCLA NLP рд╕реЗ) рд╕рд╛рде рд╡рд╛рд▓рд╛ рдкреЗрдкрд░ [VisualBERT: A Simple and Performant Baseline for Vision and Language](https:/ /arxiv.org/pdf/1908.03557) рд▓рд┐рдпреБрдирд┐рдпрди рд╣реЗрд░реЛрд▓реНрдб рд▓реА, рдорд╛рд░реНрдХ рдпрд╛рддреНрд╕реНрдХрд░, рджрд╛ рдпрд┐рди, рдЪреЛ-рдЬреБрдИ рд╣рд╕реАрд╣, рдХрд╛рдИ-рд╡реЗрдИ рдЪрд╛рдВрдЧ рджреНрд╡рд╛рд░рд╛ред
1. **[ViT Hybrid](https://huggingface.co/docs/transformers/model_doc/vit_hybrid)** (from Google AI) released with the paper [An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale](https://arxiv.org/abs/2010.11929) by Alexey Dosovitskiy, Lucas Beyer, Alexander Kolesnikov, Dirk Weissenborn, Xiaohua Zhai, Thomas Unterthiner, Mostafa Dehghani, Matthias Minderer, Georg Heigold, Sylvain Gelly, Jakob Uszkoreit, Neil Houlsby.
1. **[ViTMAE](https://huggingface.co/docs/transformers/model_doc/vit_mae)** (рдореЗрдЯрд╛ рдПрдЖрдИ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдХрд╛рдЧрдЬ [рдорд╛рд╕реНрдХрдб рдСрдЯреЛрдПрдиреНрдХреЛрдбрд░ рд╕реНрдХреЗрд▓реЗрдмрд▓ рд╡рд┐рдЬрди рд▓рд░реНрдирд░реНрд╕ рд╣реИрдВ](https://arxiv.org/ рдПрдмреНрд╕/2111.06377) рдХреИрдорд┐рдВрдЧ рд╣реЗ, рдЬрд╝рд┐рдиреЗрд▓реА рдЪреЗрди, рд╕реЗрдирд┐рдВрдЧ рдЬрд╝реА, рдпрд╛рдВрдЧрд╣реЛ рд▓реА, рдкрд┐рдУрдЯреНрд░ рдбреЙрд▓рд░, рд░реЙрд╕ рдЧрд┐рд░реНрд╢рд┐рдХ рджреНрд╡рд╛рд░рд╛ред
1. **[ViTMSN](https://huggingface.co/docs/transformers/model_doc/vit_msn)** (рдореЗрдЯрд╛ рдПрдЖрдИ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдХрд╛рдЧрдЬ [рд▓реЗрдмрд▓-рдХреБрд╢рд▓ рд╕реАрдЦрдиреЗ рдХреЗ рд▓рд┐рдП рдорд╛рд╕реНрдХреНрдб рд╕реНрдпрд╛рдо рджреЗрд╢ рдХреЗ рдиреЗрдЯрд╡рд░реНрдХ](https://arxiv. org/abs/2204.07141) рдорд╣рдореВрдж рдЕрд╕рд░рд╛рди, рдордерд┐рд▓реНрдбреЗ рдХреИрд░рди, рдИрд╢рд╛рди рдорд┐рд╢реНрд░рд╛, рдкрд┐рдпреЛрдЯреНрд░ рдмреЛрдЬрд╛рдиреЛрд╡рд╕реНрдХреА, рдлреНрд▓реЛрд░рд┐рдпрди рдмреЛрд░реНрдбреЗрд╕, рдкрд╛рд╕реНрдХрд▓ рд╡рд┐рдВрд╕реЗрдВрдЯ, рдЖрд░реНрдордВрдб рдЬреМрд▓рд┐рди, рдорд╛рдЗрдХрд▓ рд░рдмреНрдмрдд, рдирд┐рдХреЛрд▓рд╕ рдмрд▓реНрд▓рд╛рд╕ рджреНрд╡рд╛рд░рд╛ред
1. **[Wav2Vec2](https://huggingface.co/docs/transformers/model_doc/wav2vec2)** (рдлреЗрд╕рдмреБрдХ рдПрдЖрдИ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [wav2vec 2.0: рдП рдлреНрд░реЗрдорд╡рд░реНрдХ рдлреЙрд░ рд╕реЗрд▓реНрдл-рд╕реБрдкрд░рд╡рд╛рдЗрдЬреНрдб рд▓рд░реНрдирд┐рдВрдЧ рдСрдл рд╕реНрдкреАрдЪ рд░рд┐рдкреНрд░реЗрдЬреЗрдВрдЯреЗрд╢рди] (https://arxiv.org/abs/2006.11477) рдПрд▓реЗрдХреНрд╕реА рдмреЗрд╡рд╕реНрдХреА, рд╣реЗрдирд░реА рдЭреЛрдЙ, рдЕрдмреНрджреЗрд▓рд░рд╣рдорд╛рди рдореЛрд╣рдореНрдордж, рдорд╛рдЗрдХрд▓ рдФрд▓реА рджреНрд╡рд╛рд░рд╛ред
1. **[Wav2Vec2-Conformer](https://huggingface.co/docs/transformers/model_doc/wav2vec2-conformer)** (Facebook AI рд╕реЗ) рд╕рд╛рде рд╡рд╛рд▓рд╛ рдкреЗрдкрд░ [FAIRSEQ S2T: FAIRSEQ рдХреЗ рд╕рд╛рде рдлрд╛рд╕реНрдЯ рд╕реНрдкреАрдЪ-рдЯреВ-рдЯреЗрдХреНрд╕реНрдЯ рдореЙрдбрд▓рд┐рдВрдЧ ](https://arxiv.org/abs/2010.05171) рдЪрд╛рдВрдЧрд╣рд╛рди рд╡рд╛рдВрдЧ, рдпреВрдВ рддрд╛рдВрдЧ, рдЬреБрддрд╛рдИ рдорд╛, рдРрдиреА рд╡реВ, рд╕рд░рд╡реНрдпрд╛ рдкреЛрдкреБрд░реА, рджрд┐рдорд┐рддреНрд░реЛ рдУрдЦреЛрдирдХреЛ, рдЬреБрдЖрди рдкрд┐рдиреЛ рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[Wav2Vec2Phoneme](https://huggingface.co/docs/transformers/model_doc/wav2vec2_phoneme)** (Facebook AI рд╕реЗ) рд╕рд╛рде рд╡рд╛рд▓рд╛ рдкреЗрдкрд░ [рд╕рд░рд▓ рдФрд░ рдкреНрд░рднрд╛рд╡реА рдЬреАрд░реЛ-рд╢реЙрдЯ рдХреНрд░реЙрд╕-рд▓рд┐рдВрдЧреБрдЕрд▓ рдлреЛрдиреЗрдо рд░рд┐рдХреЙрдЧреНрдирд┐рд╢рди](https:/ /arxiv.org/abs/2109.11680) рдХрд┐рдпрд╛рдирдЯреЛрдВрдЧ рдЬреВ, рдПрд▓реЗрдХреНрд╕реА рдмрд╛рдПрд╡реНрд╕реНрдХреА, рдорд╛рдЗрдХрд▓ рдФрд▓реА рджреНрд╡рд╛рд░рд╛ред
1. **[WavLM](https://huggingface.co/docs/transformers/model_doc/wavlm)** (рдорд╛рдЗрдХреНрд░реЛрд╕реЙрдлреНрдЯ рд░рд┐рд╕рд░реНрдЪ рд╕реЗ) рдкреЗрдкрд░ рдХреЗ рд╕рд╛рде рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЧрдпрд╛ [WavLM: рдлреБрд▓ рд╕реНрдЯреИрдХ рдХреЗ рд▓рд┐рдП рдмрдбрд╝реЗ рдкреИрдорд╛рдиреЗ рдкрд░ рд╕реНрд╡-рдкрд░реНрдпрд╡реЗрдХреНрд╖рд┐рдд рдкреВрд░реНрд╡-рдкреНрд░рд╢рд┐рдХреНрд╖рдг рд╕реНрдкреАрдЪ рдкреНрд░реЛрд╕реЗрд╕рд┐рдВрдЧ] (https://arxiv.org/abs/2110.13900) рд╕рд╛рдирдпреБрдЖрди рдЪреЗрди, рдЪреЗрдВрдЧрдпреА рд╡рд╛рдВрдЧ, рдЭреЗрдВрдЧрдпрд╛рдВрдЧ рдЪреЗрди, рдпреВ рд╡реВ, рд╢реБрдЬреА рд▓рд┐рдпреВ, рдЬрд╝реБрдУ рдЪреЗрди, рдЬрд┐рдиреНрдпреБ рд▓реА, рдирд╛рдУрдпреБрдХреА рдХрд╛рдВрдбрд╛, рддрд╛рдХреБрдпрд╛ рдпреЛрд╢рд┐рдпреЛрдХрд╛, рдЬрд╝рд┐рдУрдВрдЧ рдЬрд┐рдУ, рдЬрд┐рдпрд╛рди рд╡реВ, рд▓реЙрдиреНрдЧ рдЭреЛрдЙ, рд╢реБрдУ рд░реЗрди, рдпрд╛рдирдорд┐рди рдХрд┐рдпрд╛рди, рдпрд╛рдУ рдХрд┐рдпрд╛рди, рдЬрд┐рдпрд╛рди рд╡реВ, рдорд╛рдЗрдХрд▓ рдЬрд╝реЗрдВрдЧ, рдлреБрд░реБ рд╡реЗрдИред
1. **[Whisper](https://huggingface.co/docs/transformers/model_doc/whisper)** (OpenAI рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдХрд╛рдЧрдЬ [рдмрдбрд╝реЗ рдкреИрдорд╛рдиреЗ рдкрд░ рдХрдордЬреЛрд░ рдкрд░реНрдпрд╡реЗрдХреНрд╖рдг рдХреЗ рдорд╛рдзреНрдпрдо рд╕реЗ рдордЬрдмреВрдд рднрд╛рд╖рдг рдкрд╣рдЪрд╛рди](https://cdn. openai.com/papers/whisper.pdf) рдПрд▓реЗрдХ рд░реИрдбрдлреЛрд░реНрдб, рдЬреЛрдВрдЧ рд╡реВрдХ рдХрд┐рдо, рддрд╛рдУ рдЬреВ, рдЧреНрд░реЗрдЧ рдмреНрд░реЙрдХрдореИрди, рдХреНрд░рд┐рд╕реНрдЯреАрди рдореИрдХрд▓реАрд╡реЗ, рдЗрд▓реНрдпрд╛ рд╕реБрддреНрд╕реНрдХреЗрд╡рд░ рджреНрд╡рд╛рд░рд╛ред
1. **[X-CLIP](https://huggingface.co/docs/transformers/model_doc/xclip)** (рдорд╛рдЗрдХреНрд░реЛрд╕реЙрдлреНрдЯ рд░рд┐рд╕рд░реНрдЪ рд╕реЗ) рдХрд╛рдЧрдЬ рдХреЗ рд╕рд╛рде [рдПрдХреНрд╕рдкреИрдВрдбрд┐рдВрдЧ рд▓реИрдВрдЧреНрд╡реЗрдЬ-рдЗрдореЗрдЬ рдкреНрд░реАрдЯреНрд░реЗрдиреНрдб рдореЙрдбрд▓ рдлреЙрд░ рдЬрдирд░рд▓ рд╡реАрдбрд┐рдпреЛ рд░рд┐рдХрдЧреНрдирд┐рд╢рди](https: //arxiv.org/abs/2208.02816) рдмреЛрд▓рд┐рди рдиреА, рд╣реЛрдЙрд╡реЗрди рдкреЗрдВрдЧ, рдорд┐рдВрдЧрд╛рдУ рдЪреЗрди, рд╕реЛрдВрдЧрдпрд╛рдВрдЧ рдЭрд╛рдВрдЧ, рдЧрд╛рдУрдлреЗрдВрдЧ рдореЗрдВрдЧ, рдЬрд┐рдпрд╛рдирд▓реЛрдВрдЧ рдлреВ, рд╢рд┐рдорд┐рдВрдЧ рдЬрд┐рдпрд╛рдВрдЧ, рд╣реИрдмрд┐рди рд▓рд┐рдВрдЧ рджреНрд╡рд╛рд░рд╛ред
2023-03-15 01:49:10 +08:00
1. **[X-MOD](https://huggingface.co/docs/transformers/model_doc/xmod)** (Meta AI рд╕реЗ) Jonas Pfeiffer, Naman Goyal, Xi Lin, Xian Li, James Cross, Sebastian Riedel, Mikel Artetxe. рджреНрд╡рд╛рд░рд╛рдЕрдиреБрд╕рдВрдзрд╛рди рдкрддреНрд░ [Lifting the Curse of Multilinguality by Pre-training Modular Transformers](http://dx.doi.org/10.18653/v1/2022.naacl-main.255) рдХреЗ рд╕рд╛рде рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЧрдпрд╛
1. **[XGLM](https://huggingface.co/docs/transformers/model_doc/xglm)** (From Facebook AI) released with the paper [Few-shot Learning with Multilingual Language Models](https://arxiv.org/abs/2112.10668) by Xi Victoria Lin, Todor Mihaylov, Mikel Artetxe, Tianlu Wang, Shuohui Chen, Daniel Simig, Myle Ott, Naman Goyal, Shruti Bhosale, Jingfei Du, Ramakanth Pasunuru, Sam Shleifer, Punit Singh Koura, Vishrav Chaudhary, Brian O'Horo, Jeff Wang, Luke Zettlemoyer, Zornitsa Kozareva, Mona Diab, Veselin Stoyanov, Xian Li.
1. **[XLM](https://huggingface.co/docs/transformers/model_doc/xlm)** (рдлреЗрд╕рдмреБрдХ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [рдХреНрд░реЙрд╕-рд▓рд┐рдВрдЧреБрдЕрд▓ рд▓реИрдВрдЧреНрд╡реЗрдЬ рдореЙрдбрд▓ рдкреНрд░реАрдЯреНрд░реЗрдирд┐рдВрдЧ] (https://arxiv.org/abs/1901.07291) рдЧрд┐рд▓рд╛рдЙрдо рд▓реИрдореНрдкрд▓ рдФрд░ рдПрд▓реЗрдХреНрд╕рд┐рд╕ рдХреЛрдиреЛ рджреНрд╡рд╛рд░рд╛ред
1. **[XLM-ProphetNet](https://huggingface.co/docs/transformers/model_doc/xlm-prophetnet)** (рдорд╛рдЗрдХреНрд░реЛрд╕реЙрдлреНрдЯ рд░рд┐рд╕рд░реНрдЪ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдХрд╛рдЧрдЬ [ProphetNet: рдкреНрд░реЗрдбрд┐рдХреНрдЯрд┐рдВрдЧ рдлреНрдпреВрдЪрд░ рдПрди-рдЧреНрд░рд╛рдо рдлреЙрд░ рд╕реАрдХреНрд╡реЗрдВрд╕-рдЯреВ- рд╕реАрдХреНрд╡реЗрдВрд╕ рдкреНрд░реА-рдЯреНрд░реЗрдирд┐рдВрдЧ](https://arxiv.org/abs/2001.04063) рдпреВ рдпрд╛рди, рд╡реАрдЬрд╝реЗрди рдХреНрдпреВрдИ, рдпреЗрдпреБрди рдЧреЛрдВрдЧ, рджрдпрд╛рд╣реЗрдВрдЧ рд▓рд┐рдпреВ, рдирд╛рди рдбреБрдЖрди, рдЬрд┐рдЙрд╢реЗрдВрдЧ рдЪреЗрди, рд░реБрдУрдлрд╝реЗрдИ рдЭрд╛рдВрдЧ рдФрд░ рдорд┐рдВрдЧ рдЭреЛрдЙ рджреНрд╡рд╛рд░рд╛ред
1. **[XLM-RoBERTa](https://huggingface.co/docs/transformers/model_doc/xlm-roberta)** (рдлреЗрд╕рдмреБрдХ рдПрдЖрдИ рд╕реЗ), рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [рдЕрдирд╕реБрдкрд░рд╡рд╛рдЗрдЬреНрдб рдХреНрд░реЙрд╕-рд▓рд┐рдВрдЧреБрдЕрд▓ рд░рд┐рдкреНрд░реЗрдЬреЗрдВрдЯреЗрд╢рди рд▓рд░реНрдирд┐рдВрдЧ рдПрдЯ рд╕реНрдХреЗрд▓] (https://arxiv.org/abs/1911.02116) рдПрд▓реЗрдХреНрд╕рд┐рд╕ рдХреЛрдиреНрдпреВ*, рдХрд╛рд░реНрддрд┐рдХреЗрдп рдЦрдВрдбреЗрд▓рд╡рд╛рд▓*, рдирдорди рдЧреЛрдпрд▓, рд╡рд┐рд╢реНрд░рд╡ рдЪреМрдзрд░реА, рдЧрд┐рд▓рд╛рдЙрдо рд╡реЗрдирдЬрд╝реЗрдХ, рдлреНрд░рд╛рдВрд╕рд┐рд╕реНрдХреЛ рдЧреБрдЬрд╝рдореИрди рджреНрд╡рд╛рд░рд╛ , рдПрдбреМрд░реНрдб рдЧреНрд░реЗрд╡, рдорд╛рдпрд▓ рдУрдЯ, рд▓реНрдпреВрдХ рдЬрд╝реЗрдЯрд▓рдореЙрдпрд░ рдФрд░ рд╡реЗрд╕реЗрд▓рд┐рди рд╕реНрдЯреЛрдпрд╛рдиреЛрд╡ рджреНрд╡рд╛рд░рд╛ред
1. **[XLM-RoBERTa-XL](https://huggingface.co/docs/transformers/model_doc/xlm-roberta-xl)** (Facebook AI рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдХрд╛рдЧрдЬ [рдмрд╣реБрднрд╛рд╖реА рдирдХрд╛рдмрдкреЛрд╢ рднрд╛рд╖рд╛ рдХреЗ рд▓рд┐рдП рдмрдбрд╝реЗ рдкреИрдорд╛рдиреЗ рдкрд░ рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░ ] рдореЙрдбрд▓рд┐рдВрдЧ](https://arxiv.org/abs/2105.00572) рдирдорди рдЧреЛрдпрд▓, рдЬрд┐рдВрдЧрдлреЗрдИ рдбреВ, рдорд╛рдпрд▓ рдУрдЯ, рдЧрд┐рд░рд┐ рдЕрдирдВрддрд░рд╛рдорди, рдПрд▓реЗрдХреНрд╕рд┐рд╕ рдХреЛрдиреЛ рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[XLM-V](https://huggingface.co/docs/transformers/model_doc/xlm-v)** (from Meta AI) released with the paper [XLM-V: Overcoming the Vocabulary Bottleneck in Multilingual Masked Language Models](https://arxiv.org/abs/2301.10472) by Davis Liang, Hila Gonen, Yuning Mao, Rui Hou, Naman Goyal, Marjan Ghazvininejad, Luke Zettlemoyer, Madian Khabsa.
1. **[XLNet](https://huggingface.co/docs/transformers/model_doc/xlnet)** (Google/CMU рд╕реЗ) рд╕рд╛рде рд╡рд╛рд▓рд╛ рдкреЗрдкрд░ [XLNet: рдЬрдирд░рд▓рд╛рдЗрдЬреНрдб рдСрдЯреЛрд░реЗрдЧреНрд░реЗрд╕рд┐рд╡ рдкреНрд░реАрдЯреНрд░реЗрдирд┐рдВрдЧ рдлреЙрд░ рд▓реИрдВрдЧреНрд╡реЗрдЬ рдЕрдВрдбрд░рд╕реНрдЯреИрдВрдбрд┐рдВрдЧ](https://arxiv рдЬрд╝реАрд▓рд┐рди рдпрд╛рдВрдЧ*, рдЬрд╝рд┐рд╣рд╛рдВрдЧ рджрд╛рдИ*, рдпрд┐рдорд┐рдВрдЧ рдпрд╛рдВрдЧ, рдЬреИрдо рдХрд╛рд░реНрдмреЛрдиреЗрд▓, рд░реБрд╕реНрд▓рд╛рди рд╕рд▓рд╛рдЦреБрддрджреАрдиреЛрд╡, рдХреНрд╡реЛрдХ рд╡реА. рд▓реЗ тАЛтАЛрджреНрд╡рд╛рд░рд╛ .org/abs/1906.08237)ред
1. **[XLS-R](https://huggingface.co/docs/transformers/model_doc/xls_r)** (Facebook AI рд╕реЗ) рд╕рд╛рде рд╡рд╛рд▓рд╛ рдкреЗрдкрд░ [XLS-R: рд╕реЗрд▓реНрдл рд╕реБрдкрд░рд╡рд╛рдЗрдЬреНрдб рдХреНрд░реЙрд╕-рд▓рд┐рдВрдЧреБрдЕрд▓ рд╕реНрдкреАрдЪ рд░рд┐рдкреНрд░реЗрдЬреЗрдВрдЯреЗрд╢рди рд▓рд░реНрдирд┐рдВрдЧ рдПрдЯ рд╕реНрдХреЗрд▓](https://arxiv.org/abs/2111.09296) рдЕрд░реБрдг рдмрд╛рдмреВ, рдЪрд╛рдВрдЧрд╣рд╛рди рд╡рд╛рдВрдЧ, рдПрдВрдбреНрд░реЛрд╕ рддрдЬрдВрджреНрд░рд╛, рдХреБрд╢рд╛рд▓ рд▓рдЦреЛрдЯрд┐рдпрд╛, рдХрд┐рдпрд╛рдирдЯреЛрдВрдЧ рдЬреВ, рдирдорди рдЧреЛрдпрд▓, рдХреГрддрд┐рдХрд╛ рд╕рд┐рдВрд╣, рдкреИрдЯреНрд░рд┐рдХ рд╡реЙрди рдкреНрд▓реИрдЯрди, рдпрд╛рдерд╛рд░реНрде рд╕рд░рд╛рдл, рдЬреБрдЖрди рдкрд┐рдиреЛ, рдПрд▓реЗрдХреНрд╕реА рдмреЗрд╡рд╕реНрдХреА, рдПрд▓реЗрдХреНрд╕рд┐рд╕ рдХреЛрдиреНрдпреВ, рдорд╛рдЗрдХрд▓ рдФрд▓реА рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[XLSR-Wav2Vec2](https://huggingface.co/docs/transformers/model_doc/xlsr_wav2vec2)** (рдлреЗрд╕рдмреБрдХ рдПрдЖрдИ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [рдЕрдирд╕реБрдкрд░рд╡рд╛рдЗрдЬреНрдб рдХреНрд░реЙрд╕-рд▓рд┐рдВрдЧреБрдЕрд▓ рд░рд┐рдкреНрд░реЗрдЬреЗрдВрдЯреЗрд╢рди рд▓рд░реНрдирд┐рдВрдЧ рдлреЙрд░ рд╕реНрдкреАрдЪ рд░рд┐рдХрдЧреНрдирд┐рд╢рди] (https://arxiv.org/abs/2006.13979) рдПрд▓реЗрдХреНрд╕рд┐рд╕ рдХреЛрдиреНрдпреВ, рдПрд▓реЗрдХреНрд╕реА рдмреЗрд╡рд╕реНрдХреА, рд░реЛрдирди рдХреЛрд▓реЛрдмрд░реНрдЯ, рдЕрдмреНрджреЗрд▓рд░рд╣рдорд╛рди рдореЛрд╣рдореНрдордж, рдорд╛рдЗрдХрд▓ рдФрд▓реА рджреНрд╡рд╛рд░рд╛ред
1. **[YOLOS](https://huggingface.co/docs/transformers/model_doc/yolos)** (рд╣реБрдЖрдЭреЛрдВрдЧ рдпреВрдирд┐рд╡рд░реНрд╕рд┐рдЯреА рдСрдл рд╕рд╛рдЗрдВрд╕ рдПрдВрдб рдЯреЗрдХреНрдиреЛрд▓реЙрдЬреА рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [рдпреВ рдУрдирд▓реА рд▓реБрдХ рдПрдЯ рд╡рди рд╕реАрдХреНрд╡реЗрдВрд╕: рд░реАрдерд┐рдВрдХрд┐рдВрдЧ рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░ рдЗрди рд╡рд┐рдЬрд╝рди рдереНрд░реВ рдСрдмреНрдЬреЗрдХреНрдЯ рдбрд┐рдЯреЗрдХреНрд╢рди](https://arxiv.org/abs/2106.00666) рдпреБрдХреНрд╕рд┐рди рдлреЗрдВрдЧ, рдмреЗрдирдЪреЗрдВрдЧ рд▓рд┐рдпрд╛рдУ, рдЬрд┐рдВрдЧрдЧреИрдВрдЧ рд╡рд╛рдВрдЧ, рдЬреЗрдорд┐рди рдлреЗрдВрдЧ, рдЬрд┐рдпрд╛рдВрдЧ рдХреНрдпреВрдИ, рд░реБрдИ рд╡реВ, рдЬрд┐рдпрд╛рдирд╡реЗрдИ рдиреАрдпреВ, рд╡реЗрдиреНрдпреВ рд▓рд┐рдпреВ рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[YOSO](https://huggingface.co/docs/transformers/model_doc/yoso)** (рд╡рд┐рд╕реНрдХреЙрдиреНрд╕рд┐рди рд╡рд┐рд╢реНрд╡рд╡рд┐рджреНрдпрд╛рд▓рдп - рдореИрдбрд┐рд╕рди рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [рдпреВ рдУрдирд▓реА рд╕реИрдВрдкрд▓ (рд▓рдЧрднрдЧ) рдЬрд╝рд╛рдирдкреЗрдВрдЧ рдЬрд╝реЗрдВрдЧ, рдпреБрдирдпрд╛рдВрдЧ рдЬрд╝рд┐рдУрдВрдЧ рджреНрд╡рд╛рд░рд╛ , рд╕рддреНрдп рдПрди. рд░рд╡рд┐, рд╢реИрд▓реЗрд╢ рдЖрдЪрд╛рд░реНрдп, рдЧреНрд▓реЗрди рдлрдВрдЧ, рд╡рд┐рдХрд╛рд╕ рд╕рд┐рдВрд╣ рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. рдПрдХ рдирдП рдореЙрдбрд▓ рдореЗрдВ рдпреЛрдЧрджрд╛рди рджреЗрдирд╛ рдЪрд╛рд╣рддреЗ рд╣реИрдВ? рдирдП рдореЙрдбрд▓ рдЬреЛрдбрд╝рдиреЗ рдореЗрдВ рдЖрдкрдХрд╛ рдорд╛рд░реНрдЧрджрд░реНрд╢рди рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рд╣рдорд╛рд░реЗ рдкрд╛рд╕ рдПрдХ **рд╡рд┐рд╕реНрддреГрдд рдорд╛рд░реНрдЧрджрд░реНрд╢рд┐рдХрд╛ рдФрд░ рдЯреЗрдореНрдкреНрд▓реЗрдЯ** рд╣реИред рдЖрдк рдЙрдиреНрд╣реЗрдВ [`рдЯреЗрдореНрдкрд▓реЗрдЯреНрд╕`](./templates) рдирд┐рд░реНрджреЗрд╢рд┐рдХрд╛ рдореЗрдВ рдкрд╛ рд╕рдХрддреЗ рд╣реИрдВред рдкреАрдЖрд░ рд╢реБрд░реВ рдХрд░рдиреЗ рд╕реЗ рдкрд╣рд▓реЗ [рдпреЛрдЧрджрд╛рди рджрд┐рд╢рд╛рдирд┐рд░реНрджреЗрд╢] (./CONTRIBUTING.md) рджреЗрдЦрдирд╛ рдФрд░ рдЕрдиреБрд░рдХреНрд╖рдХреЛрдВ рд╕реЗ рд╕рдВрдкрд░реНрдХ рдХрд░рдирд╛ рдпрд╛ рдкреНрд░рддрд┐рдХреНрд░рд┐рдпрд╛ рдкреНрд░рд╛рдкреНрдд рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рдПрдХ рдирдпрд╛ рдореБрджреНрджрд╛ рдЦреЛрд▓рдирд╛ рдпрд╛рдж рд░рдЦреЗрдВред
рдпрд╣ рдЬрд╛рдВрдЪрдиреЗ рдХреЗ рд▓рд┐рдП рдХрд┐ рдХреНрдпрд╛ рдХрд┐рд╕реА рдореЙрдбрд▓ рдореЗрдВ рдкрд╣рд▓реЗ рд╕реЗ рд╣реА Flax, PyTorch рдпрд╛ TensorFlow рдХрд╛ рдХрд╛рд░реНрдпрд╛рдиреНрд╡рдпрди рд╣реИ, рдпрд╛ рдпрджрд┐ рдЙрд╕рдХреЗ рдкрд╛рд╕ Tokenizers рд▓рд╛рдЗрдмреНрд░реЗрд░реА рдореЗрдВ рд╕рдВрдмрдВрдзрд┐рдд рдЯреЛрдХрди рд╣реИ, рддреЛ [рдпрд╣ рддрд╛рд▓рд┐рдХрд╛] (https://huggingface.co/ docs/transformers/index#supported) рджреЗрдЦреЗрдВред -рдлреНрд░реЗрдорд╡рд░реНрдХ)ред
рдЗрди рдХрд╛рд░реНрдпрд╛рдиреНрд╡рдпрдиреЛрдВ рдХрд╛ рдкрд░реАрдХреНрд╖рдг рдХрдИ рдбреЗрдЯрд╛рд╕реЗрдЯ рдкрд░ рдХрд┐рдпрд╛ рдЧрдпрд╛ рд╣реИ (рджреЗрдЦреЗрдВ рдХреЗрд╕ рд╕реНрдХреНрд░рд┐рдкреНрдЯ рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрд░реЗрдВ) рдФрд░ рд╡реИрдирд┐рд▓рд╛ рдХрд╛рд░реНрдпрд╛рдиреНрд╡рдпрди рдХреЗ рд▓рд┐рдП рддреБрд▓рдирд╛рддреНрдордХ рд░реВрдк рд╕реЗ рдкреНрд░рджрд░реНрд╢рди рдХрд░рдирд╛ рдЪрд╛рд╣рд┐рдПред рдЖрдк рдЙрдкрдпреЛрдЧ рдХреЗ рдорд╛рдорд▓реЗ рдХреЗ рджрд╕реНрддрд╛рд╡реЗрдЬрд╝ [рдЗрд╕ рдЕрдиреБрднрд╛рдЧ](https://huggingface.co/docs/transformers/examples) рдореЗрдВ рд╡реНрдпрд╡рд╣рд╛рд░ рдХрд╛ рд╡рд┐рд╡рд░рдг рдкрдврд╝ рд╕рдХрддреЗ рд╣реИрдВред
## рдЕрдзрд┐рдХ рд╕рдордЭреЗрдВ
|рдЕрдзреНрдпрд╛рдп | рд╡рд┐рд╡рд░рдг |
|-|-|
| [рджрд╕реНрддрд╛рд╡реЗрдЬрд╝реАрдХрд░рдг](https://huggingface.co/transformers/) | рдкреВрд░рд╛ рдПрдкреАрдЖрдИ рджрд╕реНрддрд╛рд╡реЗрдЬрд╝реАрдХрд░рдг рдФрд░ рдЯреНрдпреВрдЯреЛрд░рд┐рдпрд▓ |
| [рдХрд╛рд░реНрдп рд╕рд╛рд░рд╛рдВрд╢](https://huggingface.co/docs/transformers/task_summary) | рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░ рд╕рдорд░реНрдерд┐рдд рдХрд╛рд░реНрдп |
| [рдкреНрд░реАрдкреНрд░реЛрд╕реЗрд╕рд┐рдВрдЧ рдЯреНрдпреВрдЯреЛрд░рд┐рдпрд▓](https://huggingface.co/docs/transformers/preprocessing) | рдореЙрдбрд▓ рдХреЗ рд▓рд┐рдП рдбреЗрдЯрд╛ рддреИрдпрд╛рд░ рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП `рдЯреЛрдХрдирд╛рдЗрдЬрд╝рд░` рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрд░рдирд╛ |
| [рдкреНрд░рд╢рд┐рдХреНрд╖рдг рдФрд░ рдлрд╛рдЗрди-рдЯреНрдпреВрдирд┐рдВрдЧ](https://huggingface.co/docs/transformers/training) | PyTorch/TensorFlow рдХреЗ рдЯреНрд░реЗрдирд┐рдВрдЧ рд▓реВрдк рдпрд╛ `рдЯреНрд░реЗрдирд░` API рдореЗрдВ рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░ рджреНрд╡рд╛рд░рд╛ рджрд┐рдП рдЧрдП рдореЙрдбрд▓ рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрд░реЗрдВ |
| [рдХреНрд╡рд┐рдХ рд╕реНрдЯрд╛рд░реНрдЯ: рдЯреНрд╡реАрдХрд┐рдВрдЧ рдПрдВрдб рдпреВрдЬрд╝ рдХреЗрд╕ рд╕реНрдХреНрд░рд┐рдкреНрдЯреНрд╕](https://github.com/huggingface/transformers/tree/main/examples) | рд╡рд┐рднрд┐рдиреНрди рдХрд╛рд░реНрдпреЛрдВ рдХреЗ рд▓рд┐рдП рдХреЗрд╕ рд╕реНрдХреНрд░рд┐рдкреНрдЯ рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрд░реЗрдВ |
| [рдореЙрдбрд▓ рд╕рд╛рдЭрд╛ рдХрд░рдирд╛ рдФрд░ рдЕрдкрд▓реЛрдб рдХрд░рдирд╛](https://huggingface.co/docs/transformers/model_sharing) | рд╕рдореБрджрд╛рдп рдХреЗ рд╕рд╛рде рдЕрдкрдиреЗ рдлрд╛рдЗрди рдЯреВрдирдб рдореЙрдбрд▓ рдЕрдкрд▓реЛрдб рдФрд░ рд╕рд╛рдЭрд╛ рдХрд░реЗрдВ |
| [рдорд╛рдЗрдЧреНрд░реЗрд╢рди](https://huggingface.co/docs/transformers/migration) | `рдкрд╛рдЗрдЯреЛрд░рдЪ-рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░реНрд╕` рдпрд╛ `рдкрд╛рдЗрдЯреЛрд░рдЪ-рдкреНрд░реАрдЯреНрд░реЗрдирдб-рдмрд░реНрдЯ` рд╕реЗ рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░ рдореЗрдВ рдорд╛рдЗрдЧреНрд░реЗрдЯ рдХрд░рдирд╛ |
## рдЙрджреНрдзрд░рдг
рд╣рдордиреЗ рдЖрдзрд┐рдХрд╛рд░рд┐рдХ рддреМрд░ рдкрд░ рдЗрд╕ рд▓рд╛рдЗрдмреНрд░реЗрд░реА рдХрд╛ [рдкреЗрдкрд░](https://www.aclweb.org/anthology/2020.emnlp-demos.6/) рдкреНрд░рдХрд╛рд╢рд┐рдд рдХрд┐рдпрд╛ рд╣реИ, рдЕрдЧрд░ рдЖрдк рдЯреНрд░рд╛рдиреНрд╕рдлрд╝реЙрд░реНрдорд░реНрд╕ рд▓рд╛рдЗрдмреНрд░реЗрд░реА рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрд░рддреЗ рд╣реИрдВ, рддреЛ рдХреГрдкрдпрд╛ рдЙрджреНрдзреГрдд рдХрд░реЗрдВ:
```bibtex
@inproceedings{wolf-etal-2020-transformers,
title = "Transformers: State-of-the-Art Natural Language Processing",
author = "Thomas Wolf and Lysandre Debut and Victor Sanh and Julien Chaumond and Clement Delangue and Anthony Moi and Pierric Cistac and Tim Rault and R├йmi Louf and Morgan Funtowicz and Joe Davison and Sam Shleifer and Patrick von Platen and Clara Ma and Yacine Jernite and Julien Plu and Canwen Xu and Teven Le Scao and Sylvain Gugger and Mariama Drame and Quentin Lhoest and Alexander M. Rush",
booktitle = "Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing: System Demonstrations",
month = oct,
year = "2020",
address = "Online",
publisher = "Association for Computational Linguistics",
url = "https://www.aclweb.org/anthology/2020.emnlp-demos.6",
pages = "38--45"
}
```