transformers/README_hd.md

487 lines
141 KiB
Markdown
Raw Normal View History

<!---
Copyright 2020 The HuggingFace Team. All rights reserved.
Licensed under the Apache License, Version 2.0 (the "License");
you may not use this file except in compliance with the License.
You may obtain a copy of the License at
http://www.apache.org/licenses/LICENSE-2.0
Unless required by applicable law or agreed to in writing, software
distributed under the License is distributed on an "AS IS" BASIS,
WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
See the License for the specific language governing permissions and
limitations under the License.
-->
<!---
A useful guide for English-Hindi translation of Hugging Face documentation
- Add space around English words and numbers when they appear between Hindi characters. E.g., рдХреБрд▓ рдорд┐рд▓рд╛рдХрд░ 100 рд╕реЗ рдЕрдзрд┐рдХ рднрд╛рд╖рд╛рдПрдБ; рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░ рд▓рд╛рдЗрдмреНрд░реЗрд░реА рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрд░рддрд╛ рд╣реИред
- рд╡рд░реНрдЧрд╛рдХрд╛рд░ рдЙрджреНрдзрд░рдгреЛрдВ рдХрд╛ рдкреНрд░рдпреЛрдЧ рдХрд░реЗрдВ, рдЬреИрд╕реЗ, "рдЙрджреНрдзрд░рдг"
Dictionary
Hugging Face: рдЧрд▓реЗ рд▓рдЧрд╛рдУ рдЪреЗрд╣рд░рд╛
token: рд╢рдмреНрдж (рдФрд░ рдореВрд▓ рдЕрдВрдЧреНрд░реЗрдЬреА рдХреЛ рдХреЛрд╖реНрдардХ рдореЗрдВ рдЪрд┐рд╣реНрдирд┐рдд рдХрд░реЗрдВя╝Й
tokenize: рдЯреЛрдХрдирдирд╛рдЗрдЬрд╝ рдХрд░реЗрдВ (рдФрд░ рдореВрд▓ рдЕрдВрдЧреНрд░реЗрдЬрд╝реА рдХреЛ рдЪрд┐рд╣реНрдирд┐рдд рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рдХреЛрд╖реНрдардХ рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрд░реЗрдВ)
tokenizer: Tokenizer (рдореВрд▓ рдЕрдВрдЧреНрд░реЗрдЬреА рдореЗрдВ рдХреЛрд╖реНрдардХ рдХреЗ рд╕рд╛рде)
transformer: transformer
pipeline: рд╕рдордиреБрдХреНрд░рдо
API: API (рдЕрдиреБрд╡рд╛рдж рдХреЗ рдмрд┐рдирд╛)
inference: рд╡рд┐рдЪрд╛рд░
Trainer: рдкреНрд░рд╢рд┐рдХреНрд╖рдХред рдХрдХреНрд╖рд╛ рдХреЗ рдирд╛рдо рдХреЗ рд░реВрдк рдореЗрдВ рдкреНрд░рд╕реНрддреБрдд рдХрд┐рдП рдЬрд╛рдиреЗ рдкрд░ рдЕрдиреБрд╡рд╛рджрд┐рдд рдирд╣реАрдВ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
pretrained/pretrain: рдкреВрд░реНрд╡ рдкреНрд░рд╢рд┐рдХреНрд╖рдг
finetune: рдлрд╝рд╛рдЗрди рдЯреНрдпреВрдирд┐рдВрдЧ
community: рд╕рдореБрджрд╛рдп
example: рдЬрдм рд╡рд┐рд╢рд┐рд╖реНрдЯ рдЧреЛрджрд╛рдо example рдХреИрдЯрд▓реЙрдЧ рдХрд░рддреЗ рд╕рдордп "рдХреЗрд╕ рдХреЗрд╕" рдХреЗ рд░реВрдк рдореЗрдВ рдЕрдиреБрд╡рд╛рджрд┐рдд
Python data structures (e.g., list, set, dict): рдореВрд▓ рдЕрдВрдЧреНрд░реЗрдЬреА рдХреЛ рдЪрд┐рд╣реНрдирд┐рдд рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рд╕реВрдЪрд┐рдпреЛрдВ, рд╕реЗрдЯреЛрдВ, рд╢рдмреНрджрдХреЛрд╢реЛрдВ рдореЗрдВ рдЕрдиреБрд╡рд╛рдж рдХрд░реЗрдВ рдФрд░ рдХреЛрд╖реНрдардХ рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрд░реЗрдВ
NLP/Natural Language Processing: рджреНрд╡рд╛рд░рд╛ NLP рдЕрдиреБрд╡рд╛рдж рдХреЗ рдмрд┐рдирд╛ рдкреНрд░рдХрдЯ рд╣реЛрддреЗ рд╣реИрдВ Natural Language Processing рдкреНрд░рд╕реНрддреБрдд рдХрд┐рдП рдЬрд╛рдиреЗ рдкрд░ рдкреНрд░рд╛рдХреГрддрд┐рдХ рднрд╛рд╖рд╛ рд╕рдВрд╕рд╛рдзрди рдореЗрдВ рдЕрдиреБрд╡рд╛рдж рдХрд░реЗрдВ
checkpoint: рдЬрд╛рдБрдЪ рдмрд┐рдВрджреБ
-->
<p align="center">
<br>
<img src="https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/transformers_logo_name.png" width="400"/>
<br>
<p>
<p align="center">
<a href="https://circleci.com/gh/huggingface/transformers">
<img alt="Build" src="https://img.shields.io/circleci/build/github/huggingface/transformers/main">
</a>
<a href="https://github.com/huggingface/transformers/blob/main/LICENSE">
<img alt="GitHub" src="https://img.shields.io/github/license/huggingface/transformers.svg?color=blue">
</a>
<a href="https://huggingface.co/docs/transformers/index">
<img alt="Documentation" src="https://img.shields.io/website/http/huggingface.co/docs/transformers/index.svg?down_color=red&down_message=offline&up_message=online">
</a>
<a href="https://github.com/huggingface/transformers/releases">
<img alt="GitHub release" src="https://img.shields.io/github/release/huggingface/transformers.svg">
</a>
<a href="https://github.com/huggingface/transformers/blob/main/CODE_OF_CONDUCT.md">
<img alt="Contributor Covenant" src="https://img.shields.io/badge/Contributor%20Covenant-v2.0%20adopted-ff69b4.svg">
</a>
<a href="https://zenodo.org/badge/latestdoi/155220641"><img src="https://zenodo.org/badge/155220641.svg" alt="DOI"></a>
</p>
<h4 align="center">
<p>
<a href="https://github.com/huggingface/transformers/">English</a> |
<a href="https://github.com/huggingface/transformers/blob/main/README_zh-hans.md">чоАф╜Уф╕нцЦЗ</a> |
<a href="https://github.com/huggingface/transformers/blob/main/README_zh-hant.md">ч╣БщлФф╕нцЦЗ</a> |
<a href="https://github.com/huggingface/transformers/blob/main/README_ko.md">эХЬъ╡ньЦ┤</a> |
<a href="https://github.com/huggingface/transformers/blob/main/README_es.md">Espa├▒ol</a> |
<a href="https://github.com/huggingface/transformers/blob/main/README_ja.md">цЧецЬмшкЮ</a> |
<b>рд╣рд┐рдиреНрджреА</b> |
<p>
</h4>
<h3 align="center">
<p>Jax, PyTorch рдФрд░ TensorFlow рдХреЗ рд▓рд┐рдП рдЙрдиреНрдирдд рдорд╢реАрди рд▓рд░реНрдирд┐рдВрдЧ</p>
</h3>
<h3 align="center">
<a href="https://hf.co/course"><img src="https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/course_banner.png"></a>
</h3>
ЁЯдЧ Transformers 100 рд╕реЗ рдЕрдзрд┐рдХ рднрд╛рд╖рд╛рдУрдВ рдореЗрдВ рдкрд╛рда рд╡рд░реНрдЧреАрдХрд░рдг, рд╕реВрдЪрдирд╛ рдирд┐рд╖реНрдХрд░реНрд╖рдг, рдкреНрд░рд╢реНрди рдЙрддреНрддрд░, рд╕рд╛рд░рд╛рдВрд╢реАрдХрд░рдг, рдЕрдиреБрд╡рд╛рдж, рдкрд╛рда рдирд┐рд░реНрдорд╛рдг рдХрд╛ рд╕рдорд░реНрдерди рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рд╣рдЬрд╛рд░реЛрдВ рдкреВрд░реНрд╡-рдкреНрд░рд╢рд┐рдХреНрд╖рд┐рдд рдореЙрдбрд▓ рдкреНрд░рджрд╛рди рдХрд░рддрд╛ рд╣реИред рдЗрд╕рдХрд╛ рдЙрджреНрджреЗрд╢реНрдп рд╕рдмрд╕реЗ рдЙрдиреНрдирдд рдПрдирдПрд▓рдкреА рддрдХрдиреАрдХ рдХреЛ рд╕рднреА рдХреЗ рд▓рд┐рдП рд╕реБрд▓рдн рдмрдирд╛рдирд╛ рд╣реИред
ЁЯдЧ Transformers рддреНрд╡рд░рд┐рдд рдбрд╛рдЙрдирд▓реЛрдб рдФрд░ рдЙрдкрдпреЛрдЧ рдХреЗ рд▓рд┐рдП рдПрдХ рдПрдкреАрдЖрдИ рдкреНрд░рджрд╛рди рдХрд░рддрд╛ рд╣реИ, рдЬрд┐рд╕рд╕реЗ рдЖрдк рдХрд┐рд╕реА рджрд┐рдП рдЧрдП рдкрд╛рда рдкрд░ рдПрдХ рдкреВрд░реНрд╡-рдкреНрд░рд╢рд┐рдХреНрд╖рд┐рдд рдореЙрдбрд▓ рд▓реЗ рд╕рдХрддреЗ рд╣реИрдВ, рдЗрд╕реЗ рдЕрдкрдиреЗ рдбреЗрдЯрд╛рд╕реЗрдЯ рдкрд░ рдареАрдХ рдХрд░ рд╕рдХрддреЗ рд╣реИрдВ рдФрд░ рдЗрд╕реЗ [рдореЙрдбрд▓ рд╣рдм] (https://huggingface.co/models) рдХреЗ рдорд╛рдзреНрдпрдо рд╕реЗ рд╕рдореБрджрд╛рдп рдХреЗ рд╕рд╛рде рд╕рд╛рдЭрд╛ рдХрд░ рд╕рдХрддреЗ рд╣реИрдВред ) . рдЗрд╕реА рд╕рдордп, рдкреНрд░рддреНрдпреЗрдХ рдкрд░рд┐рднрд╛рд╖рд┐рдд рдкрд╛рдпрдерди рдореЙрдбреНрдпреВрд▓ рдкреВрд░реА рддрд░рд╣ рд╕реЗ рд╕реНрд╡рддрдВрддреНрд░ рд╣реИ, рдЬреЛ рд╕рдВрд╢реЛрдзрди рдФрд░ рддреЗрдЬреА рд╕реЗ рдЕрдиреБрд╕рдВрдзрд╛рди рдкреНрд░рдпреЛрдЧреЛрдВ рдХреЗ рд▓рд┐рдП рд╕реБрд╡рд┐рдзрд╛рдЬрдирдХ рд╣реИред
ЁЯдЧ Transformers рддреАрди рд╕рдмрд╕реЗ рд▓реЛрдХрдкреНрд░рд┐рдп рдЧрд╣рди рд╢рд┐рдХреНрд╖рдг рдкреБрд╕реНрддрдХрд╛рд▓рдпреЛрдВ рдХрд╛ рд╕рдорд░реНрдерди рдХрд░рддрд╛ рд╣реИя╝Ъ [Jax](https://jax.readthedocs.io/en/latest/), [PyTorch](https://pytorch.org/) and [TensorFlow](https://www.tensorflow.org/) тАФ рдФрд░ рдЗрд╕рдХреЗ рд╕рд╛рде рдирд┐рд░реНрдмрд╛рдз рд░реВрдк рд╕реЗ рдПрдХреАрдХреГрдд рд╣реЛрддрд╛ рд╣реИред рдЖрдк рдЕрдкрдиреЗ рдореЙрдбрд▓ рдХреЛ рд╕реАрдзреЗ рдПрдХ рдврд╛рдВрдЪреЗ рдХреЗ рд╕рд╛рде рдкреНрд░рд╢рд┐рдХреНрд╖рд┐рдд рдХрд░ рд╕рдХрддреЗ рд╣реИрдВ рдФрд░ рджреВрд╕рд░реЗ рдХреЗ рд╕рд╛рде рд▓реЛрдб рдФрд░ рдЕрдиреБрдорд╛рди рд▓рдЧрд╛ рд╕рдХрддреЗ рд╣реИрдВред
## рдСрдирд▓рд╛рдЗрди рдбреЗрдореЛ
рдЖрдк рд╕рдмрд╕реЗ рд╕реАрдзреЗ рдореЙрдбрд▓ рдкреГрд╖реНрда рдкрд░ рдкрд░реАрдХреНрд╖рдг рдХрд░ рд╕рдХрддреЗ рд╣реИрдВ [model hub](https://huggingface.co/models) рдореЙрдбрд▓ рдкрд░ред рд╣рдо [рдирд┐рдЬреА рдореЙрдбрд▓ рд╣реЛрд╕реНрдЯрд┐рдВрдЧ, рдореЙрдбрд▓ рд╕рдВрд╕реНрдХрд░рдг, рдФрд░ рдЕрдиреБрдорд╛рди рдПрдкреАрдЖрдИ] рднреА рдкреНрд░рджрд╛рди рдХрд░рддреЗ рд╣реИрдВред(https://huggingface.co/pricing)уАВ
рдпрд╣рд╛рдБ рдХреБрдЫ рдЙрджрд╛рд╣рд░рдг рд╣реИрдВя╝Ъ
- [рд╢рдмреНрдж рдХреЛ рднрд░рдиреЗ рдХреЗ рд▓рд┐рдП рдорд╛рд╕реНрдХ рдХреЗ рд░реВрдк рдореЗрдВ BERT рдХрд╛ рдкреНрд░рдпреЛрдЧ рдХрд░реЗрдВ](https://huggingface.co/bert-base-uncased?text=Paris+is+the+%5BMASK%5D+of+France)
- [рдЗрд▓реЗрдХреНрдЯреНрд░рд╛ рдХреЗ рд╕рд╛рде рдирд╛рдорд┐рдд рдЗрдХрд╛рдИ рдкрд╣рдЪрд╛рди](https://huggingface.co/dbmdz/electra-large-discriminator-finetuned-conll03-english?text=My+name+is+Sarah+and+I+live+in+London+city)
- [рдЬреАрдкреАрдЯреА-2 рдХреЗ рд╕рд╛рде рдЯреЗрдХреНрд╕реНрдЯ рдЬрдирд░реЗрд╢рди](https://huggingface.co/gpt2?text=A+long+time+ago%2C+)
- [рд░реЙрдмрд░реНрдЯрд╛ рдХреЗ рд╕рд╛рде рдкреНрд░рд╛рдХреГрддрд┐рдХ рднрд╛рд╖рд╛ рдирд┐рд╖реНрдХрд░реНрд╖](https://huggingface.co/roberta-large-mnli?text=The+dog+was+lost.+Nobody+lost+any+animal)
- [рдмрд╛рд░реНрдЯ рдХреЗ рд╕рд╛рде рдкрд╛рда рд╕рд╛рд░рд╛рдВрд╢](https://huggingface.co/facebook/bart-large-cnn?text=The+tower+is+324+metres+%281%2C063+ft%29+tall%2C+about+the+same+height+as+an+81-storey+building%2C+and+the+tallest+structure+in+Paris.+Its+base+is+square%2C+measuring+125+metres+%28410+ft%29+on+each+side.+During+its+construction%2C+the+Eiffel+Tower+surpassed+the+Washington+Monument+to+become+the+tallest+man-made+structure+in+the+world%2C+a+title+it+held+for+41+years+until+the+Chrysler+Building+in+New+York+City+was+finished+in+1930.+It+was+the+first+structure+to+reach+a+height+of+300+metres.+Due+to+the+addition+of+a+broadcasting+aerial+at+the+top+of+the+tower+in+1957%2C+it+is+now+taller+than+the+Chrysler+Building+by+5.2+metres+%2817+ft%29.+Excluding+transmitters%2C+the+Eiffel+Tower+is+the+second+tallest+free-standing+structure+in+France+after+the+Millau+Viaduct)
- [рдбрд┐рд╕реНрдЯрд┐рд▓рдмрд░реНрдЯ рдХреЗ рд╕рд╛рде рдкреНрд░рд╢реНрдиреЛрддреНрддрд░](https://huggingface.co/distilbert-base-uncased-distilled-squad?text=Which+name+is+also+used+to+describe+the+Amazon+rainforest+in+English%3F&context=The+Amazon+rainforest+%28Portuguese%3A+Floresta+Amaz%C3%B4nica+or+Amaz%C3%B4nia%3B+Spanish%3A+Selva+Amaz%C3%B3nica%2C+Amazon%C3%ADa+or+usually+Amazonia%3B+French%3A+For%C3%AAt+amazonienne%3B+Dutch%3A+Amazoneregenwoud%29%2C+also+known+in+English+as+Amazonia+or+the+Amazon+Jungle%2C+is+a+moist+broadleaf+forest+that+covers+most+of+the+Amazon+basin+of+South+America.+This+basin+encompasses+7%2C000%2C000+square+kilometres+%282%2C700%2C000+sq+mi%29%2C+of+which+5%2C500%2C000+square+kilometres+%282%2C100%2C000+sq+mi%29+are+covered+by+the+rainforest.+This+region+includes+territory+belonging+to+nine+nations.+The+majority+of+the+forest+is+contained+within+Brazil%2C+with+60%25+of+the+rainforest%2C+followed+by+Peru+with+13%25%2C+Colombia+with+10%25%2C+and+with+minor+amounts+in+Venezuela%2C+Ecuador%2C+Bolivia%2C+Guyana%2C+Suriname+and+French+Guiana.+States+or+departments+in+four+nations+contain+%22Amazonas%22+in+their+names.+The+Amazon+represents+over+half+of+the+planet%27s+remaining+rainforests%2C+and+comprises+the+largest+and+most+biodiverse+tract+of+tropical+rainforest+in+the+world%2C+with+an+estimated+390+billion+individual+trees+divided+into+16%2C000+species)
- [рдЕрдиреБрд╡рд╛рдж рдХреЗ рд▓рд┐рдП T5 рдХрд╛ рдкреНрд░рдпреЛрдЧ рдХрд░реЗрдВ](https://huggingface.co/t5-base?text=My+name+is+Wolfgang+and+I+live+in+Berlin)
**[Write With Transformer](https://transformer.huggingface.co)**я╝Мрд╣рдЧрд┐рдВрдЧ рдлреЗрд╕ рдЯреАрдо рджреНрд╡рд╛рд░рд╛ рдмрдирд╛рдпрд╛ рдЧрдпрд╛, рдпрд╣ рдПрдХ рдЖрдзрд┐рдХрд╛рд░рд┐рдХ рдкрд╛рда рдкреАрдврд╝реА рд╣реИ demoуАВ
## рдпрджрд┐ рдЖрдк рд╣рдЧрд┐рдВрдЧ рдлреЗрд╕ рдЯреАрдо рд╕реЗ рдмреАрд╕реНрдкреЛрдХ рд╕рдорд░реНрдерди рдХреА рддрд▓рд╛рд╢ рдХрд░ рд░рд╣реЗ рд╣реИрдВ
<a target="_blank" href="https://huggingface.co/support">
<img alt="HuggingFace Expert Acceleration Program" src="https://huggingface.co/front/thumbnails/support.png" style="max-width: 600px; border: 1px solid #eee; border-radius: 4px; box-shadow: 0 1px 2px 0 rgba(0, 0, 0, 0.05);">
</a><br>
## рдЬрд▓реНрджреА рд╢реБрд░реВ рдХрд░реЗрдВ
рд╣рдо рддреНрд╡рд░рд┐рдд рдЙрдкрдпреЛрдЧ рдХреЗ рд▓рд┐рдП рдореЙрдбрд▓ рдкреНрд░рджрд╛рди рдХрд░рддреЗ рд╣реИрдВ `pipeline` (рдкрд╛рдЗрдкрд▓рд╛рдЗрди) рдПрдкреАрдЖрдИред рдкрд╛рдЗрдкрд▓рд╛рдЗрди рдкреВрд░реНрд╡-рдкреНрд░рд╢рд┐рдХреНрд╖рд┐рдд рдореЙрдбрд▓ рдФрд░ рд╕рдВрдмрдВрдзрд┐рдд рдкрд╛рда рдкреНрд░реАрдкреНрд░реЛрд╕реЗрд╕рд┐рдВрдЧ рдХреЛ рдПрдХрддреНрд░рд┐рдд рдХрд░рддреА рд╣реИред рд╕рдХрд╛рд░рд╛рддреНрдордХ рдФрд░ рдирдХрд╛рд░рд╛рддреНрдордХ рднрд╛рд╡рдирд╛ рдХреЛ рдирд┐рд░реНрдзрд╛рд░рд┐рдд рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рдкрд╛рдЗрдкрд▓рд╛рдЗрдиреЛрдВ рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрд░рдиреЗ рдХрд╛ рдПрдХ рддреНрд╡рд░рд┐рдд рдЙрджрд╛рд╣рд░рдг рдпрд╣рд╛рдВ рджрд┐рдпрд╛ рдЧрдпрд╛ рд╣реИ:
```python
>>> from transformers import pipeline
# рднрд╛рд╡рдирд╛ рд╡рд┐рд╢реНрд▓реЗрд╖рдг рдкрд╛рдЗрдкрд▓рд╛рдЗрди рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрд░рдирд╛
>>> classifier = pipeline('sentiment-analysis')
>>> classifier('We are very happy to introduce pipeline to the transformers repository.')
[{'label': 'POSITIVE', 'score': 0.9996980428695679}]
```
рдХреЛрдб рдХреА рджреВрд╕рд░реА рдкрдВрдХреНрддрд┐ рдкрд╛рдЗрдкрд▓рд╛рдЗрди рджреНрд╡рд╛рд░рд╛ рдЙрдкрдпреЛрдЧ рдХрд┐рдП рдЧрдП рдкреВрд░реНрд╡-рдкреНрд░рд╢рд┐рдХреНрд╖рд┐рдд рдореЙрдбрд▓ рдХреЛ рдбрд╛рдЙрдирд▓реЛрдб рдФрд░ рдХреИрд╢ рдХрд░рддреА рд╣реИ, рдЬрдмрдХрд┐ рдХреЛрдб рдХреА рддреАрд╕рд░реА рдкрдВрдХреНрддрд┐ рджрд┐рдП рдЧрдП рдкрд╛рда рдкрд░ рдореВрд▓реНрдпрд╛рдВрдХрди рдХрд░рддреА рд╣реИред рдпрд╣рд╛рдВ рдЙрддреНрддрд░ 99 рдЖрддреНрдорд╡рд┐рд╢реНрд╡рд╛рд╕ рдХреЗ рд╕реНрддрд░ рдХреЗ рд╕рд╛рде "рд╕рдХрд╛рд░рд╛рддреНрдордХ" рд╣реИред
рдХрдИ рдПрдирдПрд▓рдкреА рдХрд╛рд░реНрдпреЛрдВ рдореЗрдВ рдЖрдЙрдЯ рдСреЮ рдж рдмреЙрдХреНрд╕ рдкрд╛рдЗрдкрд▓рд╛рдЗрдиреЛрдВ рдХрд╛ рдкреВрд░реНрд╡-рдкреНрд░рд╢рд┐рдХреНрд╖рдг рд╣реЛрддрд╛ рд╣реИред рдЙрджрд╛рд╣рд░рдг рдХреЗ рд▓рд┐рдП, рд╣рдо рдХрд┐рд╕реА рджрд┐рдП рдЧрдП рдкрд╛рда рд╕реЗ рдХрд┐рд╕реА рдкреНрд░рд╢реНрди рдХрд╛ рдЙрддреНрддрд░ рдЖрд╕рд╛рдиреА рд╕реЗ рдирд┐рдХрд╛рд▓ рд╕рдХрддреЗ рд╣реИрдВ:
``` python
>>> from transformers import pipeline
# рдкреНрд░рд╢реНрдиреЛрддреНрддрд░ рдкрд╛рдЗрдкрд▓рд╛рдЗрди рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрд░рдирд╛
>>> question_answerer = pipeline('question-answering')
>>> question_answerer({
... 'question': 'What is the name of the repository ?',
... 'context': 'Pipeline has been included in the huggingface/transformers repository'
... })
{'score': 0.30970096588134766, 'start': 34, 'end': 58, 'answer': 'huggingface/transformers'}
```
рдЙрддреНрддрд░ рджреЗрдиреЗ рдХреЗ рдЕрд▓рд╛рд╡рд╛, рдкреВрд░реНрд╡-рдкреНрд░рд╢рд┐рдХреНрд╖рд┐рдд рдореЙрдбрд▓ рд╕рдВрдЧрдд рдЖрддреНрдорд╡рд┐рд╢реНрд╡рд╛рд╕ рд╕реНрдХреЛрд░ рднреА рджреЗрддрд╛ рд╣реИ, рдЬрд╣рд╛рдВ рдЙрддреНрддрд░ рдЯреЛрдХрдирдпреБрдХреНрдд рдкрд╛рда рдореЗрдВ рд╢реБрд░реВ рдФрд░ рд╕рдорд╛рдкреНрдд рд╣реЛрддрд╛ рд╣реИред рдЖрдк [рдЗрд╕ рдЯреНрдпреВрдЯреЛрд░рд┐рдпрд▓](https://huggingface.co/docs/transformers/task_summary) рд╕реЗ рдкрд╛рдЗрдкрд▓рд╛рдЗрди рдПрдкреАрдЖрдИ рджреНрд╡рд╛рд░рд╛ рд╕рдорд░реНрдерд┐рдд рдХрд╛рд░реНрдпреЛрдВ рдХреЗ рдмрд╛рд░реЗ рдореЗрдВ рдЕрдзрд┐рдХ рдЬрд╛рди рд╕рдХрддреЗ рд╣реИрдВред
рдЕрдкрдиреЗ рдХрд╛рд░реНрдп рдкрд░ рдХрд┐рд╕реА рднреА рдкреВрд░реНрд╡-рдкреНрд░рд╢рд┐рдХреНрд╖рд┐рдд рдореЙрдбрд▓ рдХреЛ рдбрд╛рдЙрдирд▓реЛрдб рдХрд░рдирд╛ рдФрд░ рдЙрд╕рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрд░рдирд╛ рднреА рдХреЛрдб рдХреА рддреАрди рдкрдВрдХреНрддрд┐рдпреЛрдВ рдХреА рддрд░рд╣ рд╕рд░рд▓ рд╣реИред рдпрд╣рд╛рдБ PyTorch рд╕рдВрд╕реНрдХрд░рдг рдХреЗ рд▓рд┐рдП рдПрдХ рдЙрджрд╛рд╣рд░рдг рджрд┐рдпрд╛ рдЧрдпрд╛ рд╣реИ:
```python
>>> from transformers import AutoTokenizer, AutoModel
>>> tokenizer = AutoTokenizer.from_pretrained("bert-base-uncased")
>>> model = AutoModel.from_pretrained("bert-base-uncased")
>>> inputs = tokenizer("Hello world!", return_tensors="pt")
>>> outputs = model(**inputs)
```
рдпрд╣рд╛рдБ рд╕рдордХрдХреНрд╖ рд╣реИ TensorFlow рдХреЛрдб:
```python
>>> from transformers import AutoTokenizer, TFAutoModel
>>> tokenizer = AutoTokenizer.from_pretrained("bert-base-uncased")
>>> model = TFAutoModel.from_pretrained("bert-base-uncased")
>>> inputs = tokenizer("Hello world!", return_tensors="tf")
>>> outputs = model(**inputs)
```
рдЯреЛрдХрдирдирд╛рдЗрдЬрд╝рд░ рд╕рднреА рдкреВрд░реНрд╡-рдкреНрд░рд╢рд┐рдХреНрд╖рд┐рдд рдореЙрдбрд▓реЛрдВ рдХреЗ рд▓рд┐рдП рдкреНрд░реАрдкреНрд░реЛрд╕реЗрд╕рд┐рдВрдЧ рдкреНрд░рджрд╛рди рдХрд░рддрд╛ рд╣реИ рдФрд░ рдЗрд╕реЗ рд╕реАрдзреЗ рдПрдХ рд╕реНрдЯреНрд░рд┐рдВрдЧ (рдЬреИрд╕реЗ рдКрдкрд░ рджрд┐рдП рдЧрдП рдЙрджрд╛рд╣рд░рдг) рдпрд╛ рдХрд┐рд╕реА рд╕реВрдЪреА рдкрд░ рдмреБрд▓рд╛рдпрд╛ рдЬрд╛ рд╕рдХрддрд╛ рд╣реИред рдпрд╣ рдПрдХ рдбрд┐рдХреНрд╢рдирд░реА (рддрд╛рдирд╛рд╢рд╛рд╣реА) рдХреЛ рдЖрдЙрдЯрдкреБрдЯ рдХрд░рддрд╛ рд╣реИ рдЬрд┐рд╕реЗ рдЖрдк рдбрд╛рдЙрдирд╕реНрдЯреНрд░реАрдо рдХреЛрдб рдореЗрдВ рдЙрдкрдпреЛрдЧ рдХрд░ рд╕рдХрддреЗ рд╣реИрдВ рдпрд╛ `**` рдЕрдирдкреИрдХрд┐рдВрдЧ рдПрдХреНрд╕рдкреНрд░реЗрд╢рди рдХреЗ рдорд╛рдзреНрдпрдо рд╕реЗ рд╕реАрдзреЗ рдореЙрдбрд▓ рдХреЛ рдкрд╛рд╕ рдХрд░ рд╕рдХрддреЗ рд╣реИрдВред
рдореЙрдбрд▓ рд╕реНрд╡рдпрдВ рдПрдХ рдирд┐рдпрдорд┐рдд [Pytorch `nn.Module`](https://pytorch.org/docs/stable/nn.html#torch.nn.Module) рдпрд╛ [TensorFlow `tf.keras.Model`](https ://pytorch.org/docs/stable/nn.html#torch.nn.Module) ://www.tensorflow.org/api_docs/python/tf/keras/Model) (рдЖрдкрдХреЗ рдмреИрдХрдПрдВрдб рдХреЗ рдЖрдзрд╛рд░ рдкрд░), рдЬреЛ рд╣реЛ рд╕рдХрддрд╛ рд╣реИ рд╕рд╛рдорд╛рдиреНрдп рддрд░реАрдХреЗ рд╕реЗ рдЙрдкрдпреЛрдЧ рдХрд┐рдпрд╛ рдЬрд╛рддрд╛ рд╣реИред [рдпрд╣ рдЯреНрдпреВрдЯреЛрд░рд┐рдпрд▓](https://huggingface.co/transformers/training.html) рдмрддрд╛рддрд╛ рд╣реИ рдХрд┐ рдЗрд╕ рддрд░рд╣ рдХреЗ рдореЙрдбрд▓ рдХреЛ рдХреНрд▓рд╛рд╕рд┐рдХ PyTorch рдпрд╛ TensorFlow рдкреНрд░рд╢рд┐рдХреНрд╖рдг рд▓реВрдк рдореЗрдВ рдХреИрд╕реЗ рдПрдХреАрдХреГрдд рдХрд┐рдпрд╛ рдЬрд╛рдП, рдпрд╛ рд╣рдорд╛рд░реЗ `рдЯреНрд░реЗрдирд░` рдПрдкреАрдЖрдИ рдХрд╛ рдЙрдкрдпреЛрдЧ рдХреИрд╕реЗ рдХрд░реЗрдВ рддрд╛рдХрд┐ рдЗрд╕реЗ рдЬрд▓реНрджреА рд╕реЗ рдлрд╝рд╛рдЗрди рдЯреНрдпреВрди рдХрд┐рдпрд╛ рдЬрд╛ рд╕рдХреЗредрдПрдХ рдирдпрд╛ рдбреЗрдЯрд╛рд╕реЗрдЯ рдкреЗред
## рдЯреНрд░рд╛рдВрд╕рдлрд╛рд░реНрдорд░ рдХрд╛ рдЙрдкрдпреЛрдЧ рдХреНрдпреЛрдВ рдХрд░реЗрдВ?
1. рдЙрдкрдпреЛрдЧ рдореЗрдВ рдЖрд╕рд╛рдиреА рдХреЗ рд▓рд┐рдП рдЙрдиреНрдирдд рдореЙрдбрд▓:
- рдПрдирдПрд▓рдпреВ рдФрд░ рдПрдирдПрд▓рдЬреА рдкрд░ рдмреЗрд╣рддрд░ рдкреНрд░рджрд░реНрд╢рди
- рдкреНрд░рд╡реЗрд╢ рдХреЗ рд▓рд┐рдП рдХрдо рдмрд╛рдзрд╛рдУрдВ рдХреЗ рд╕рд╛рде рд╢рд┐рдХреНрд╖рдг рдФрд░ рдЕрднреНрдпрд╛рд╕ рдХреЗ рдЕрдиреБрдХреВрд▓
- рдЙрдкрдпреЛрдЧрдХрд░реНрддрд╛-рд╕рд╛рдордирд╛ рдХрд░рдиреЗ рд╡рд╛рд▓реЗ рд╕рд╛рд░ рддрддреНрд╡, рдХреЗрд╡рд▓ рддреАрди рд╡рд░реНрдЧреЛрдВ рдХреЛ рдЬрд╛рдирдиреЗ рдХреА рдЬрд░реВрд░рдд рд╣реИ
- рд╕рднреА рдореЙрдбрд▓реЛрдВ рдХреЗ рд▓рд┐рдП рдПрдХреАрдХреГрдд рдПрдкреАрдЖрдИ
1. рдХрдо рдХрдореНрдкреНрдпреВрдЯреЗрд╢рдирд▓ рдУрд╡рд░рд╣реЗрдб рдФрд░ рдХрдо рдХрд╛рд░реНрдмрди рдЙрддреНрд╕рд░реНрдЬрди:
- рд╢реЛрдзрдХрд░реНрддрд╛ рд╣рд░ рдмрд╛рд░ рдирдП рд╕рд┐рд░реЗ рд╕реЗ рдкреНрд░рд╢рд┐рдХреНрд╖рдг рджреЗрдиреЗ рдХреЗ рдмрдЬрд╛рдп рдкреНрд░рд╢рд┐рдХреНрд╖рд┐рдд рдореЙрдбрд▓ рд╕рд╛рдЭрд╛ рдХрд░ рд╕рдХрддреЗ рд╣реИрдВ
- рдЗрдВрдЬреАрдирд┐рдпрд░ рдЧрдгрдирд╛ рд╕рдордп рдФрд░ рдЙрддреНрдкрд╛рджрди рдУрд╡рд░рд╣реЗрдб рдХреЛ рдХрдо рдХрд░ рд╕рдХрддреЗ рд╣реИрдВ
- рджрд░реНрдЬрдиреЛрдВ рдореЙрдбрд▓ рдЖрд░реНрдХрд┐рдЯреЗрдХреНрдЪрд░, 2,000 рд╕реЗ рдЕрдзрд┐рдХ рдкреВрд░реНрд╡-рдкреНрд░рд╢рд┐рдХреНрд╖рд┐рдд рдореЙрдбрд▓, 100 рд╕реЗ рдЕрдзрд┐рдХ рднрд╛рд╖рд╛рдУрдВ рдХрд╛ рд╕рдорд░реНрдерди
1.рдореЙрдбрд▓ рдЬреАрд╡рдирдЪрдХреНрд░ рдХреЗ рд╣рд░ рд╣рд┐рд╕реНрд╕реЗ рдХреЛ рд╢рд╛рдорд┐рд▓ рдХрд░рддрд╛ рд╣реИ:
- рдХреЛрдб рдХреА рдХреЗрд╡рд▓ 3 рдкрдВрдХреНрддрд┐рдпреЛрдВ рдореЗрдВ рдЙрдиреНрдирдд рдореЙрдбрд▓реЛрдВ рдХреЛ рдкреНрд░рд╢рд┐рдХреНрд╖рд┐рдд рдХрд░реЗрдВ
- рдореЙрдбрд▓ рдХреЛ рдордирдорд╛рдиреЗ рдврдВрдЧ рд╕реЗ рд╡рд┐рднрд┐рдиреНрди рдбреАрдк рд▓рд░реНрдирд┐рдВрдЧ рдлреНрд░реЗрдорд╡рд░реНрдХ рдХреЗ рдмреАрдЪ рд╕реНрдерд╛рдирд╛рдВрддрд░рд┐рдд рдХрд┐рдпрд╛ рдЬрд╛ рд╕рдХрддрд╛ рд╣реИ, рдЬреИрд╕рд╛ рдЖрдк рдЪрд╛рд╣рддреЗ рд╣реИрдВ
- рдирд┐рд░реНрдмрд╛рдз рд░реВрдк рд╕реЗ рдкреНрд░рд╢рд┐рдХреНрд╖рдг, рдореВрд▓реНрдпрд╛рдВрдХрди рдФрд░ рдЙрддреНрдкрд╛рджрди рдХреЗ рд▓рд┐рдП рд╕рдмрд╕реЗ рдЙрдкрдпреБрдХреНрдд рдврд╛рдВрдЪрд╛ рдЪреБрдиреЗрдВ
1. рдЖрд╕рд╛рдиреА рд╕реЗ рдЕрдирдиреНрдп рдореЙрдбрд▓ рдХреЛ рдЕрдиреБрдХреВрд▓рд┐рдд рдХрд░реЗрдВ рдФрд░ рдЕрдкрдиреА рдЖрд╡рд╢реНрдпрдХрддрд╛рдУрдВ рдХреЗ рд▓рд┐рдП рдорд╛рдорд▓реЛрдВ рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрд░реЗрдВ:
- рд╣рдо рдореВрд▓ рдкреЗрдкрд░ рдкрд░рд┐рдгрд╛рдореЛрдВ рдХреЛ рдкреБрди: рдкреЗрд╢ рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рдкреНрд░рддреНрдпреЗрдХ рдореЙрдбрд▓ рдЖрд░реНрдХрд┐рдЯреЗрдХреНрдЪрд░ рдХреЗ рд▓рд┐рдП рдХрдИ рдЙрдкрдпреЛрдЧ рдХреЗ рдорд╛рдорд▓реЗ рдкреНрд░рджрд╛рди рдХрд░рддреЗ рд╣реИрдВ
- рдореЙрдбрд▓ рдХреА рдЖрдВрддрд░рд┐рдХ рд╕рдВрд░рдЪрдирд╛ рдкрд╛рд░рджрд░реНрд╢реА рдФрд░ рд╕реБрд╕рдВрдЧрдд рд░рд╣рддреА рд╣реИ
- рдореЙрдбрд▓ рдлрд╝рд╛рдЗрд▓ рдХреЛ рдЕрд▓рдЧ рд╕реЗ рдЗрд╕реНрддреЗрдорд╛рд▓ рдХрд┐рдпрд╛ рдЬрд╛ рд╕рдХрддрд╛ рд╣реИ, рдЬреЛ рд╕рдВрд╢реЛрдзрди рдФрд░ рддреНрд╡рд░рд┐рдд рдкреНрд░рдпреЛрдЧ рдХреЗ рд▓рд┐рдП рд╕реБрд╡рд┐рдзрд╛рдЬрдирдХ рд╣реИ
## рдореБрдЭреЗ рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░ рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрдм рдирд╣реАрдВ рдХрд░рдирд╛ рдЪрд╛рд╣рд┐рдП?
- рдпрд╣ рд▓рд╛рдЗрдмреНрд░реЗрд░реА рдореЙрдбреНрдпреВрд▓рд░ рдиреНрдпреВрд░рд▓ рдиреЗрдЯрд╡рд░реНрдХ рдЯреВрд▓рдмреЙрдХреНрд╕ рдирд╣реАрдВ рд╣реИред рдореЙрдбрд▓ рдлрд╝рд╛рдЗрд▓ рдореЗрдВ рдХреЛрдб рдЬрд╛рдирдмреВрдЭрдХрд░ рдЕрд▓реНрдкрд╡рд┐рдХрд╕рд┐рдд рд╣реИ, рдмрд┐рдирд╛ рдЕрддрд┐рд░рд┐рдХреНрдд рд╕рд╛рд░ рдЗрдирдХреИрдкреНрд╕реБрд▓реЗрд╢рди рдХреЗ, рддрд╛рдХрд┐ рд╢реЛрдзрдХрд░реНрддрд╛ рдЕрдореВрд░реНрддрддрд╛ рдФрд░ рдлрд╝рд╛рдЗрд▓ рдЬрдВрдкрд┐рдВрдЧ рдореЗрдВ рд╢рд╛рдорд┐рд▓ рд╣реБрдП рдЬрд▓реНрджреА рд╕реЗ рдкреБрдирд░рд╛рд╡реГрддрд┐ рдХрд░ рд╕рдХреЗрдВред
- `рдЯреНрд░реЗрдирд░` рдПрдкреАрдЖрдИ рдХрд┐рд╕реА рднреА рдореЙрдбрд▓ рдХреЗ рд╕рд╛рде рд╕рдВрдЧрдд рдирд╣реАрдВ рд╣реИ, рдпрд╣ рдХреЗрд╡рд▓ рдЗрд╕ рдкреБрд╕реНрддрдХрд╛рд▓рдп рдХреЗ рдореЙрдбрд▓ рдХреЗ рд▓рд┐рдП рдЕрдиреБрдХреВрд▓рд┐рдд рд╣реИред рдпрджрд┐ рдЖрдк рд╕рд╛рдорд╛рдиреНрдп рдорд╢реАрди рд▓рд░реНрдирд┐рдВрдЧ рдХреЗ рд▓рд┐рдП рдЙрдкрдпреБрдХреНрдд рдкреНрд░рд╢рд┐рдХреНрд╖рдг рд▓реВрдк рдХрд╛рд░реНрдпрд╛рдиреНрд╡рдпрди рдХреА рддрд▓рд╛рд╢ рдореЗрдВ рд╣реИрдВ, рддреЛ рдХрд╣реАрдВ рдФрд░ рджреЗрдЦреЗрдВред
- рд╣рдорд╛рд░реЗ рд╕рд░реНрд╡реЛрддреНрддрдо рдкреНрд░рдпрд╛рд╕реЛрдВ рдХреЗ рдмрд╛рд╡рдЬреВрдж, [рдЙрджрд╛рд╣рд░рдг рдирд┐рд░реНрджреЗрд╢рд┐рдХрд╛] (https://github.com/huggingface/transformers/tree/main/examples) рдореЗрдВ рд╕реНрдХреНрд░рд┐рдкреНрдЯ рдХреЗрд╡рд▓ рдЙрдкрдпреЛрдЧ рдХреЗ рдорд╛рдорд▓реЗ рд╣реИрдВред рдЖрдкрдХреА рд╡рд┐рд╢рд┐рд╖реНрдЯ рд╕рдорд╕реНрдпрд╛ рдХреЗ рд▓рд┐рдП, рд╡реЗ рдЬрд░реВрд░реА рдирд╣реАрдВ рдХрд┐ рдмреЙрдХреНрд╕ рд╕реЗ рдмрд╛рд╣рд░ рдХрд╛рдо рдХрд░реЗрдВ, рдФрд░ рдЖрдкрдХреЛ рдХреЛрдб рдХреА рдХреБрдЫ рдкрдВрдХреНрддрд┐рдпреЛрдВ рдХреЛ рд╕реВрдЯ рдХрд░рдиреЗ рдХреА рдЖрд╡рд╢реНрдпрдХрддрд╛ рд╣реЛ рд╕рдХрддреА рд╣реИред
## рд╕реНрдерд╛рдкрд┐рдд рдХрд░рдирд╛
### рдкрд┐рдк рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрд░рдирд╛
рдЗрд╕ рд░рд┐рдкреЙрдЬрд┐рдЯрд░реА рдХрд╛ рдкрд░реАрдХреНрд╖рдг Python 3.6+, Flax 0.3.2+, PyTorch 1.3.1+ рдФрд░ TensorFlow 2.3+ рдХреЗ рддрд╣рдд рдХрд┐рдпрд╛ рдЧрдпрд╛ рд╣реИред
рдЖрдк [рд╡рд░реНрдЪреБрдЕрд▓ рдПрдирд╡рд╛рдпрд░рдирдореЗрдВрдЯ] (https://docs.python.org/3/library/venv.html) рдореЗрдВ ЁЯдЧ рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░ рдЗрдВрд╕реНрдЯреЙрд▓ рдХрд░ рд╕рдХрддреЗ рд╣реИрдВред рдпрджрд┐ рдЖрдк рдЕрднреА рддрдХ рдкрд╛рдпрдерди рдХреЗ рд╡рд░реНрдЪреБрдЕрд▓ рдПрдирд╡рд╛рдпрд░рдирдореЗрдВрдЯ рд╕реЗ рдкрд░рд┐рдЪрд┐рдд рдирд╣реАрдВ рд╣реИрдВ, рддреЛ рдХреГрдкрдпрд╛ рдЗрд╕реЗ [рдЙрдкрдпреЛрдЧрдХрд░реНрддрд╛ рдирд┐рд░реНрджреЗрд╢] (https://packaging.python.org/guides/installing-using-pip-and-virtual-environments/) рдкрдврд╝реЗрдВред
рд╕рдмрд╕реЗ рдкрд╣рд▓реЗ, рдкрд╛рдпрдерди рдХреЗ рдЙрд╕ рд╕рдВрд╕реНрдХрд░рдг рдХреЗ рд╕рд╛рде рдПрдХ рдЖрднрд╛рд╕реА рд╡рд╛рддрд╛рд╡рд░рдг рдмрдирд╛рдПрдВ рдЬрд┐рд╕рдХрд╛ рдЖрдк рдЙрдкрдпреЛрдЧ рдХрд░рдиреЗ рдФрд░ рдЙрд╕реЗ рд╕рдХреНрд░рд┐рдп рдХрд░рдиреЗ рдХреА рдпреЛрдЬрдирд╛ рдмрдирд╛ рд░рд╣реЗ рд╣реИрдВред
рдлрд┐рд░, рдЖрдкрдХреЛ Flax, PyTorch рдпрд╛ TensorFlow рдореЗрдВ рд╕реЗ рдХрд┐рд╕реА рдПрдХ рдХреЛ рд╕реНрдерд╛рдкрд┐рдд рдХрд░рдиреЗ рдХреА рдЖрд╡рд╢реНрдпрдХрддрд╛ рд╣реИред рдЕрдкрдиреЗ рдкреНрд▓реЗрдЯрдлрд╝реЙрд░реНрдо рдкрд░ рдЗрди рдлрд╝реНрд░реЗрдорд╡рд░реНрдХ рдХреЛ рд╕реНрдерд╛рдкрд┐рдд рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП, [TensorFlow рд╕реНрдерд╛рдкрдирд╛ рдкреГрд╖реНрда](https://www.tensorflow.org/install/), [PyTorch рд╕реНрдерд╛рдкрдирд╛ рдкреГрд╖реНрда](https://pytorch.org/get-started /locally/# рджреЗрдЦреЗрдВ) start-locally) рдпрд╛ [Flax рд╕реНрдерд╛рдкрдирд╛ рдкреГрд╖реНрда](https://github.com/google/flax#quick-install).
рдЬрдм рдЗрдирдореЗрдВ рд╕реЗ рдХреЛрдИ рдПрдХ рдмреИрдХрдПрдВрдб рд╕рдлрд▓рддрд╛рдкреВрд░реНрд╡рдХ рд╕реНрдерд╛рдкрд┐рдд рд╣реЛ рдЬрд╛рддрд╛ рд╣реИ, рддреЛ рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░ рдирд┐рдореНрдирд╛рдиреБрд╕рд╛рд░ рд╕реНрдерд╛рдкрд┐рдд рдХрд┐рдП рдЬрд╛ рд╕рдХрддреЗ рд╣реИрдВ:
```bash
pip install transformers
```
рдпрджрд┐ рдЖрдк рдЙрдкрдпреЛрдЧ рдХреЗ рдорд╛рдорд▓реЛрдВ рдХреЛ рдЖрдЬрд╝рдорд╛рдирд╛ рдЪрд╛рд╣рддреЗ рд╣реИрдВ рдпрд╛ рдЖрдзрд┐рдХрд╛рд░рд┐рдХ рд░рд┐рд▓реАрдЬрд╝ рд╕реЗ рдкрд╣рд▓реЗ рдирд╡реАрдирддрдо рдЗрди-рдбреЗрд╡рд▓рдкрдореЗрдВрдЯ рдХреЛрдб рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрд░рдирд╛ рдЪрд╛рд╣рддреЗ рд╣реИрдВ, рддреЛ рдЖрдкрдХреЛ [рд╕реЛрд░реНрд╕ рд╕реЗ рдЗрдВрд╕реНрдЯреЙрд▓ рдХрд░рдирд╛ рд╣реЛрдЧрд╛](https://huggingface.co/docs/transformers/installation#installing-from- рд╕реНрд░реЛрдд)ред
### рдХреЛрдВрдбрд╛ рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрд░рдирд╛
рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░ рд╕рдВрд╕реНрдХрд░рдг 4.0.0 рдХреЗ рдмрд╛рдж рд╕реЗ, рд╣рдорд╛рд░реЗ рдкрд╛рд╕ рдПрдХ рдХреЛрдВрдбрд╛ рдЪреИрдирд▓ рд╣реИ: `рд╣рдЧрд┐рдВрдЧрдлреЗрд╕`ред
рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░ рдХреЛрдВрдбрд╛ рдХреЗ рдорд╛рдзреНрдпрдо рд╕реЗ рдирд┐рдореНрдирд╛рдиреБрд╕рд╛рд░ рд╕реНрдерд╛рдкрд┐рдд рдХрд┐рдпрд╛ рдЬрд╛ рд╕рдХрддрд╛ рд╣реИ:
```shell script
conda install -c huggingface transformers
```
рдХреЛрдВрдбрд╛ рдХреЗ рдорд╛рдзреНрдпрдо рд╕реЗ Flax, PyTorch, рдпрд╛ TensorFlow рдореЗрдВ рд╕реЗ рдХрд┐рд╕реА рдПрдХ рдХреЛ рд╕реНрдерд╛рдкрд┐рдд рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП, рдирд┐рд░реНрджреЗрд╢реЛрдВ рдХреЗ рд▓рд┐рдП рдЙрдирдХреЗ рд╕рдВрдмрдВрдзрд┐рдд рд╕реНрдерд╛рдкрдирд╛ рдкреГрд╖реНрда рджреЗрдЦреЗрдВред
## рдореЙрдбрд▓ рдЖрд░реНрдХрд┐рдЯреЗрдХреНрдЪрд░
[рдЙрдкрдпреЛрдЧрдХрд░реНрддрд╛](https://huggingface.co/users) рдФрд░ [organization](https://huggingface.co) рджреНрд╡рд╛рд░рд╛ рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░ рд╕рдорд░реНрдерд┐рдд [**рд╕рднреА рдореЙрдбрд▓ рдЪреМрдХрд┐рдпреЛрдВ**](https://huggingface.co/models) /users) рд╣рдЧрд┐рдВрдЧрдлреЗрд╕.рдХреЛ/рдСрд░реНрдЧрдирд╛рдЗрдЬреЗрд╢рди), рд╕рднреА рдХреЛ рдмрд┐рдирд╛ рдХрд┐рд╕реА рдмрд╛рдзрд╛ рдХреЗ рд╣рдЧрд┐рдВрдЧрдлреЗрд╕.рдХреЛ [рдореЙрдбрд▓ рд╣рдм](https://huggingface.co) рдХреЗ рд╕рд╛рде рдПрдХреАрдХреГрдд рдХрд┐рдпрд╛ рдЧрдпрд╛ рд╣реИред
рдЪреМрдХрд┐рдпреЛрдВ рдХреА рд╡рд░реНрддрдорд╛рди рд╕рдВрдЦреНрдпрд╛: ![](https://img.shields.io/endpoint?url=https://huggingface.co/api/shields/models&color=brightgreen)
ЁЯдЧ рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░ рд╡рд░реНрддрдорд╛рди рдореЗрдВ рдирд┐рдореНрдирд▓рд┐рдЦрд┐рдд рдЖрд░реНрдХрд┐рдЯреЗрдХреНрдЪрд░ рдХрд╛ рд╕рдорд░реНрдерди рдХрд░рддреЗ рд╣реИрдВ (рдореЙрдбрд▓ рдХреЗ рдЕрд╡рд▓реЛрдХрди рдХреЗ рд▓рд┐рдП [рдпрд╣рд╛рдВ] рджреЗрдЦреЗрдВ (https://huggingface.co/docs/transformers/model_summary))я╝Ъ
1. **[ALBERT](https://huggingface.co/docs/transformers/model_doc/albert)** (Google Research and the Toyota Technological Institute at Chicago) рд╕рд╛рде рдереАрд╕рд┐рд╕ [ALBERT: A Lite BERT for Self-supervised рднрд╛рд╖рд╛ рдкреНрд░рддрд┐рдирд┐рдзрд┐рддреНрд╡ рд╕реАрдЦрдирд╛](https://arxiv.org/abs/1909.11942), рдЭреЗрдВрдЭреЛрдВрдЧ рд▓реИрди, рдорд┐рдВрдЧрджрд╛ рдЪреЗрди, рд╕реЗрдмреЗрд╕реНрдЯрд┐рдпрди рдЧреБрдбрдореИрди, рдХреЗрд╡рд┐рди рдЧрд┐рдореНрдкреЗрд▓, рдкреАрдпреВрд╖ рд╢рд░реНрдорд╛, рд░рд╛рдбреВ рд╕реЛрд░рд┐рдХрдЯ
2023-03-15 01:49:10 +08:00
1. **[ALIGN](https://huggingface.co/docs/transformers/model_doc/align)** (Google Research рд╕реЗ) Chao Jia, Yinfei Yang, Ye Xia, Yi-Ting Chen, Zarana Parekh, Hieu Pham, Quoc V. Le, Yunhsuan Sung, Zhen Li, Tom Duerig. рджреНрд╡рд╛рд░рд╛рдЕрдиреБрд╕рдВрдзрд╛рди рдкрддреНрд░ [Scaling Up Visual and Vision-Language Representation Learning With Noisy Text Supervision](https://arxiv.org/abs/2102.05918) рдХреЗ рд╕рд╛рде рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЧрдпрд╛
1. **[AltCLIP](https://huggingface.co/docs/transformers/model_doc/altclip)** (from BAAI) released with the paper [AltCLIP: Altering the Language Encoder in CLIP for Extended Language Capabilities](https://arxiv.org/abs/2211.06679) by Chen, Zhongzhi and Liu, Guang and Zhang, Bo-Wen and Ye, Fulong and Yang, Qinghong and Wu, Ledell.
1. **[Audio Spectrogram Transformer](https://huggingface.co/docs/transformers/model_doc/audio-spectrogram-transformer)** (from MIT) released with the paper [AST: Audio Spectrogram Transformer](https://arxiv.org/abs/2104.01778) by Yuan Gong, Yu-An Chung, James Glass.
2023-06-13 04:24:27 +08:00
1. **[Autoformer](https://huggingface.co/docs/transformers/model_doc/autoformer)** (from Tsinghua University) released with the paper [Autoformer: Decomposition Transformers with Auto-Correlation for Long-Term Series Forecasting](https://arxiv.org/abs/2106.13008) by Haixu Wu, Jiehui Xu, Jianmin Wang, Mingsheng Long.
Add bark (#24086) * first raw version of the bark integration * working code on small models with single run * add converting script from suno weights 2 hf * many changes * correct past_kv output * working implementation for inference * update the converting script according to the architecture changes * add a working end-to-end inference code * remove some comments and make small changes * remove unecessary comment * add docstrings and ensure no unecessary intermediary output during audio generation * remove done TODOs * make style + add config docstrings * modification for batch inference support on the whole model * add details to .generation_audio method * add copyright * convert EncodecModel from original library to transformers implementation * add two class in order to facilitate model and sub-models loading from the hub * add support of loading the whole model * add BarkProcessor * correct modeling according to processor output * Add proper __init__ and auto support * Add up-to-date copyright/license message * add relative import instead of absolute * cleaner head_dim computation * small comment removal or changes * more verbose LayerNorm init method * specify eps for clearer comprehension * more verbose variable naming in the MLP module * remove unecessary BarkBlock parameter * clearer code in the forward pass of the BarkBlock * remove _initialize_modules method for cleaner code * Remove unnecessary methods from sub-models * move code to remove unnecessary function * rename a variable for clarity and change an assert * move code and change variable name for clarity * remove unnecessary asserts * correct small bug * correct a comment * change variable names for clarity * remove asserts * change import from absolute to relative * correct small error due to comma missing + correct import * Add attribute Bark config * add first version of tests * update attention_map * add tie_weights and resize_token_embeddings for fineModel * correct getting attention_mask in generate_text_semantic * remove Bark inference trick * leave more choices in barkProcessor * remove _no_split_modules * fixe error in forward of block and introduce clearer notations * correct converting script with last changes * make style + add draft bark.mdx * correct BarkModelTest::test_generate_text_semantic * add Bark in main README * add dummy_pt_objects for Bark * add missing models in the main init * correct test_decoder_model_past_with_large_inputs * disable torchscript test * change docstring of BarkProcessor * Add test_processor_bark * make style * correct copyrights * add bark.mdx + make style, quality and consistency * Apply suggestions from code review Co-authored-by: Sanchit Gandhi <93869735+sanchit-gandhi@users.noreply.github.com> * Remove unnecessary test method * simply logic of a test * Only check first ids for slow audio generation * split full end-to-end generation tests * remove unneccessary comment * change submodel names for clearer naming * remove ModuleDict from modeling_bark * combine two if statements * ensure that an edge misued won't happen * modify variable name * move code snippet to the right place (coarse instead of semantic) * change BarkSemanticModule -> BarkSemanticModel * align BarkProcessor with transformers paradigm * correct BarkProcessor tests with last commit changes * change _validate_voice_preset to an instance method instead of a class method * tie_weights already called with post_init * add codec_model config to configuration * update bark modeling tests with recent BarkProcessor changes * remove SubModelPretrainedModel + change speakers embeddings prompt type in BarkModel * change absolute imports to relative * remove TODO * change docstrings * add examples to docs and docstrings * make style * uses BatchFeature in BarkProcessor insteads of dict * continue improving docstrings and docs + make style * correct docstrings examples * more comprehensible speaker_embeddings load/Save * rename speaker_embeddings_dict -> speaker_embeddings * correct bark.mdx + add bark to documentation_tests * correct docstrings configuration_bark * integrate last nit suggestions * integrate BarkGeneration configs * make style * remove bark tests from documentation_tests.txt because timeout - tested manually * add proper generation config initialization * small bark.mdx documentation changes * rename bark.mdx -> bark.md * add torch.no_grad behind BarkModel.generate_audio() * replace assert by ValueError in convert_suno_to_hf.py * integrate a series of short comments from reviewer * move SemanticLogitsProcessors and remove .detach() from Bark docs and docstrings * actually remove SemanticLogitsProcessor from modeling_bark.oy * BarkProcessor returns a single output instead of tuple + correct docstrings * make style + correct bug * add initializer_range to BarkConfig + correct slow modeling tests * add .clone() to history_prompt.coarse_prompt to avoid modifying input array * Making sure no extra "`" are present * remove extra characters in modeling_bark.py * Correct output if history_prompt is None * remove TODOs * remove ravel comment * completing generation_configuration_bark.py docstrings * change docstrings - number of audio codebooks instead of Encodec codebooks * change 'bias' docstrings in configuration_bark.py * format code * rename BarkModel.generate_audio -> BarkModel.generate_speech * modify AutoConfig instead of EncodecConfig in BarkConfig * correct AutoConfig wrong init * refactor BarkModel and sub-models generate_coarse, generate_fine, generate_text_semantic * remove SemanticLogitsProcessor and replace it with SuppressTokensLogitsProcessor * move nb_codebook related config arguments to BarkFineConfig * rename bark.mdx -> bark.md * correcting BarkModelConfig from_pretrained + remove keys_to_ignore * correct bark.md with correct hub path * correct code bug in bark.md * correct list tokens_to_suppress * modify Processor to load nested speaker embeddings in a safer way * correct batch sampling in BarkFineModel.generate_fine * Apply suggestions from code review Small docstrings correction and code improvements Co-authored-by: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * give more details about num_layers in docstrings * correct indentation mistake * correct submodelconfig order of docstring variables * put audio models in alphabetical order in utils/check_repo.my * remove useless line from test_modeling_bark.py * makes BarkCoarseModelTest inherits from (ModelTesterMixin, GenerationTesterMixin, unittest.TestCase) instead of BarkSemanticModelTest * make a Tester class for each sub-model instead of inheriting * add test_resize_embeddings=True for Bark sub-models * add Copied from transformers.models.gpt_neo.modeling_gpt_neo.GPTNeoSelfAttention._split_heads * remove 'Copied fom Bark' comment * remove unneccessary comment * change np.min -> min in modeling_bark.py * refactored all custom layers to have Bark prefix * add attention_mask as an argument of generate_text_semantic * refactor sub-models start docstrings to have more precise config class definition * move _tied_weights_keys overriding * add docstrings to generate_xxx in modeling_bark.py * add loading whole BarkModel to convert_suno_to_hf * refactor attribute and variable names * make style convert_suno * update bark checkpoints * remove never entered if statement * move bark_modeling docstrings after BarkPretrainedModel class definition * refactor modeling_bark.py: kv -> key_values * small nits - code refactoring and removing unecessary lines from _init_weights * nits - replace inplace method by variable assigning * remove *optional* when necessary * remove some lines in generate_speech * add default value for optional parameter * Refactor preprocess_histories_before_coarse -> preprocess_histories Co-authored-by: Sylvain Gugger <35901082+sgugger@users.noreply.github.com> * correct usage after refactoring * refactor Bark's generate_xxx -> generate and modify docstrings and tests accordingly * update docstrings python in configuration_bark.py * add bark files in utils/documentation_test.txt * correct docstrings python snippet * add the ability to use parameters in the form of e.g coarse_temperature * add semantic_max_new_tokens in python snippet in docstrings for quicker generation * Reformate sub-models kwargs in BakModel.generate Co-authored-by: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * correct kwargs in BarkModel.generate * correct attention_mask kwarg in BarkModel.generate * add tests for sub-models args in BarkModel.generate and correct BarkFineModel.test_generate_fp16 * enrich BarkModel.generate docstrings with a description of how to use the kwargs --------- Co-authored-by: Sanchit Gandhi <93869735+sanchit-gandhi@users.noreply.github.com> Co-authored-by: amyeroberts <22614925+amyeroberts@users.noreply.github.com> Co-authored-by: Sylvain Gugger <35901082+sgugger@users.noreply.github.com>
2023-07-18 00:53:24 +08:00
1. **[Bark](https://huggingface.co/docs/transformers/main/model_doc/bark)** (from Suno) released in the repository [suno-ai/bark](https://github.com/suno-ai/bark) by Suno AI team.
1. **[BART](https://huggingface.co/docs/transformers/model_doc/bart)** (рдлреЗрд╕рдмреБрдХ) рд╕рд╛рде рдереАрд╕рд┐рд╕ [рдмрд╛рд░реНрдЯ: рдкреНрд░рд╛рдХреГрддрд┐рдХ рднрд╛рд╖рд╛ рдирд┐рд░реНрдорд╛рдг, рдЕрдиреБрд╡рд╛рдж рдХреЗ рд▓рд┐рдП рдЕрдиреБрдХреНрд░рдо-рд╕реЗ-рдЕрдиреБрдХреНрд░рдо рдкреВрд░реНрд╡ рдкреНрд░рд╢рд┐рдХреНрд╖рдг , рдФрд░ рд╕рдордЭ] (https://arxiv.org/pdf/1910.13461.pdf) рдкрд░ рдирд┐рд░реНрднрд░ рдорд╛рдЗрдХ рд▓реБрдИрд╕, рдпрд┐рдирд╣рд╛рди рд▓рд┐рдпреВ, рдирдорди рдЧреЛрдпрд▓, рдорд╛рд░реНрдЬрди рдЧрд╝рдЬрд╝рд╡рд┐рдирд┐рдиреЗрдЬрд╛рдж, рдЕрдмреНрджреЗрд▓рд░рд╣рдорд╛рди рдореЛрд╣рдореНрдордж, рдУрдорд░ рд▓реЗрд╡реА, рд╡реЗрд╕ рд╕реНрдЯреЛрдпрд╛рдиреЛрд╡ рдФрд░ рд▓реНрдпреВрдХ рдЬрд╝реЗрдЯрд▓рдореЙрдпрд░
1. **[BARThez](https://huggingface.co/docs/transformers/model_doc/barthez)** (рд╕реЗ ├Йcole polytechnique) рд╕рд╛рде рдереАрд╕рд┐рд╕ [BARThez: a Skilled Pretrained French Sequence-to-Sequence Model](https://arxiv.org/abs/2010.12321) рдкрд░ рдирд┐рд░реНрднрд░ Moussa Kamal Eddine, Antoine J.-P. Tixier, Michalis Vazirgiannis рд░рд┐рд╣рд╛рдИред
1. **[BARTpho](https://huggingface.co/docs/transformers/model_doc/bartpho)** (VinAI Research рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [BARTpho: Pre-trained Sequence-to-Sequence Models for Vietnamese](https://arxiv.org/abs/2109.09701)рдЧреБрдпреЗрди рд▓реБрдУрдВрдЧ рдЯреНрд░рд╛рди, рдбреБрдУрдВрдЧ рдорд┐рдиреНрд╣ рд▓реЗ рдФрд░ рдбрд╛рдЯ рдХреНрд╡реЛрдХ рдЧреБрдпреЗрди рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[BEiT](https://huggingface.co/docs/transformers/model_doc/beit)** (Microsoft рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдХрд╛рдЧрдЬ [BEiT: BERT рдЗрдореЗрдЬ рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░реНрд╕ рдХрд╛ рдкреНрд░реА-рдЯреНрд░реЗрдирд┐рдВрдЧ](https://arxiv.org/abs/2106.08254) Hangbo Bao, Li Dong, Furu Wei рджреНрд╡рд╛рд░рд╛ред
1. **[BERT](https://huggingface.co/docs/transformers/model_doc/bert)** (рдЧреВрдЧрд▓ рд╕реЗ) рд╕рд╛рде рд╡рд╛рд▓рд╛ рдкреЗрдкрд░ [рдмреАрдИрдЖрд░рдЯреА: рдкреНрд░реА-рдЯреНрд░реЗрдирд┐рдВрдЧ рдСрдл рдбреАрдк рдмрд┐рдбрд╛рдпрд░реЗрдХреНрд╢рдирд▓ рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░реНрд╕ рдлреЙрд░ рд▓реИрдВрдЧреНрд╡реЗрдЬ рдЕрдВрдбрд░рд╕реНрдЯреИрдВрдбрд┐рдВрдЧ](https://arxiv.org/abs/1810.04805) рдЬреИрдХрдм рдбреЗрд╡рд▓рд┐рди, рдорд┐рдВрдЧ-рд╡реЗрдИ рдЪрд╛рдВрдЧ, тАЛтАЛрдХреЗрдВрдЯрди рд▓реА рдФрд░ рдХреНрд░рд┐рд╕реНрдЯреАрдирд╛ рдЯреМрдЯрд╛рдиреЛрд╡рд╛ рджреНрд╡рд╛рд░рд╛ рдкреНрд░рдХрд╛рд╢рд┐рдд рдХрд┐рдпрд╛ рдЧрдпрд╛ рдерд╛ред .
1. **[BERT For Sequence Generation](https://huggingface.co/docs/transformers/model_doc/bert-generation)** (рдЧреВрдЧрд▓ рд╕реЗ) рд╕рд╛рде рджреЗрдиреЗ рд╡рд╛рд▓рд╛ рдкреЗрдкрд░ [рд╕реАрдХреНрд╡реЗрдВрд╕ рдЬреЗрдирд░реЗрд╢рди рдЯрд╛рд╕реНрдХ рдХреЗ рд▓рд┐рдП рдкреНрд░реА-рдЯреНрд░реЗрдВрдб рдЪреЗрдХрдкреЙрдЗрдВрдЯ рдХрд╛ рдЗрд╕реНрддреЗрдорд╛рд▓ рдХрд░рдирд╛](https ://arxiv.org/abs/1907.12461) рд╕рд╛рд╢рд╛ рд░реЛрдареЗ, рд╢рд╢рд┐ рдирд╛рд░рд╛рдпрдг, рдЕрд▓рд┐рдпрд╛рдХреНрд╕рд┐ рд╕реЗрд╡реЗрд░рд┐рди рджреНрд╡рд╛рд░рд╛ред
1. **[BERTweet](https://huggingface.co/docs/transformers/model_doc/bertweet)** (VinAI Research рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [BERTweet: рдЕрдВрдЧреНрд░реЗрдЬреА рдЯреНрд╡реАрдЯреНрд╕ рдХреЗ рд▓рд┐рдП рдПрдХ рдкреВрд░реНрд╡-рдкреНрд░рд╢рд┐рдХреНрд╖рд┐рдд рднрд╛рд╖рд╛ рдореЙрдбрд▓] (https://aclanthology.org/2020.emnlp-demos.2/) рдбрд╛рдЯ рдХреНрд╡реЛрдХ рдЧреБрдпреЗрди, рдерд╛рди рд╡реБ рдФрд░ рдЕрдиреНрд╣ рддреБрдЖрди рдЧреБрдпреЗрди рджреНрд╡рд╛рд░рд╛ рдкреНрд░рдХрд╛рд╢рд┐рддред
1. **[BigBird-Pegasus](https://huggingface.co/docs/transformers/model_doc/bigbird_pegasus)** (рдЧреВрдЧрд▓ рд░рд┐рд╕рд░реНрдЪ рд╕реЗ) рд╕рд╛рде рд╡рд╛рд▓рд╛ рдкреЗрдкрд░ [рдмрд┐рдЧ рдмрд░реНрдб: рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░реНрд╕ рдлреЙрд░ рд▓реЙрдиреНрдЧрд░ рд╕реАрдХреНрд╡реЗрдВрд╕](https://arxiv .org/abs/2007.14062) рдордВрдЬрд╝рд┐рд▓ рдЬрд╝рд╣реАрд░, рдЧреБрд░реБ рдЧреБрд░реБрдЧрдгреЗрд╢, рдЕрд╡рд┐рдирд╛рд╡рд╛ рджреБрдмреЗ, рдЬреЛрд╢реБрдЖ рдЖрдЗрдВрд╕реНрд▓реА, рдХреНрд░рд┐рд╕ рдЕрд▓реНрдмрд░реНрдЯреА, рд╕реИрдВрдЯрд┐рдпрд╛рдЧреЛ рдУрдВрдЯрд╛рдиреЛрди, рдлрд┐рд▓рд┐рдк рдлрд╛рдо, рдЕрдирд┐рд░реБрджреНрдз рд░рд╛рд╡реБрд▓рд╛, рдХрд┐рдлрд╝рд╛рди рд╡рд╛рдВрдЧ, рд▓реА рдпрд╛рдВрдЧ, рдЕрдорд░ рдЕрд╣рдордж рджреНрд╡рд╛рд░рд╛ред
1. **[BigBird-RoBERTa](https://huggingface.co/docs/transformers/model_doc/big_bird)** (рдЧреВрдЧрд▓ рд░рд┐рд╕рд░реНрдЪ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [рдмрд┐рдЧ рдмрд░реНрдб: рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░реНрд╕ рдлреЙрд░ рд▓реЙрдиреНрдЧрд░ рд╕реАрдХреНрд╡реЗрдВрд╕](https://arxiv.org/abs/2007.14062) рдордВрдЬрд╝рд┐рд▓ рдЬрд╝рд╣реАрд░, рдЧреБрд░реБ рдЧреБрд░реБрдЧрдгреЗрд╢, рдЕрд╡рд┐рдирд╛рд╡рд╛ рджреБрдмреЗ, рдЬреЛрд╢реБрдЖ рдЖрдЗрдВрд╕реНрд▓реА, рдХреНрд░рд┐рд╕ рдЕрд▓реНрдмрд░реНрдЯреА, рд╕реИрдВрдЯрд┐рдпрд╛рдЧреЛ рдУрдВрдЯрд╛рдирди, рдлрд┐рд▓рд┐рдк рдлрд╛рдо рджреНрд╡рд╛рд░рд╛ , рдЕрдирд┐рд░реБрджреНрдз рд░рд╛рд╡реБрд▓рд╛, рдХрд┐рдлрд╝рд╛рди рд╡рд╛рдВрдЧ, рд▓реА рдпрд╛рдВрдЧ, рдЕрдорд░ рдЕрд╣рдордж рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[BioGpt](https://huggingface.co/docs/transformers/model_doc/biogpt)** (from Microsoft Research AI4Science) released with the paper [BioGPT: generative pre-trained transformer for biomedical text generation and mining](https://academic.oup.com/bib/advance-article/doi/10.1093/bib/bbac409/6713511?guestAccessKey=a66d9b5d-4f83-4017-bb52-405815c907b9) by Renqian Luo, Liai Sun, Yingce Xia, Tao Qin, Sheng Zhang, Hoifung Poon and Tie-Yan Liu.
1. **[BiT](https://huggingface.co/docs/transformers/model_doc/bit)** (from Google AI) released with the paper [Big Transfer (BiT) by Alexander Kolesnikov, Lucas Beyer, Xiaohua Zhai, Joan Puigcerver, Jessica Yung, Sylvain Gelly, Neil Houlsby.
1. **[Blenderbot](https://huggingface.co/docs/transformers/model_doc/blenderbot)** (рдлреЗрд╕рдмреБрдХ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдХрд╛рдЧрдЬ [рдПрдХ рдУрдкрди-рдбреЛрдореЗрди рдЪреИрдЯрдмреЙрдЯ рдмрдирд╛рдиреЗ рдХреА рд╡рд┐рдзрд┐](https://arxiv.org /abs/2004.13637) рд╕реНрдЯреАрдлрди рд░реЛрд▓рд░, рдПрдорд┐рд▓реА рджреАрдирди, рдирдорди рдЧреЛрдпрд▓, рджрд╛ рдЬреВ, рдореИрд░реА рд╡рд┐рд▓рд┐рдпрдорд╕рди, рдпрд┐рдирд╣рд╛рди рд▓рд┐рдпреВ, рдЬрд┐рдВрдЧ рдЬреВ, рдорд╛рдпрд▓ рдУрдЯ, рдХрд░реНрдЯ рд╢рд╕реНрдЯрд░, рдПрд░рд┐рдХ рдПрдоред рд╕реНрдорд┐рде, рд╡рд╛рдИ-рд▓реИрди рдмреЙрд░реЛ, рдЬреЗрд╕рди рд╡реЗрд╕реНрдЯрди рджреНрд╡рд╛рд░рд╛ред
1. **[BlenderbotSmall](https://huggingface.co/docs/transformers/model_doc/blenderbot-small)** (рдлреЗрд╕рдмреБрдХ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [рдПрдХ рдУрдкрди-рдбреЛрдореЗрди рдЪреИрдЯрдмреЙрдЯ рдмрдирд╛рдиреЗ рдХреА рд░реЗрд╕рд┐рдкреА](https://arxiv .org/abs/2004.13637) рд╕реНрдЯреАрдлрди рд░реЛрд▓рд░, рдПрдорд┐рд▓реА рджреАрдирди, рдирдорди рдЧреЛрдпрд▓, рджрд╛ рдЬреВ, рдореИрд░реА рд╡рд┐рд▓рд┐рдпрдорд╕рди, рдпрд┐рдирд╣рд╛рди рд▓рд┐рдпреВ, рдЬрд┐рдВрдЧ рдЬреВ, рдорд╛рдпрд▓ рдУрдЯ, рдХрд░реНрдЯ рд╢рд╕реНрдЯрд░, рдПрд░рд┐рдХ рдПрдо рд╕реНрдорд┐рде, рд╡рд╛рдИ-рд▓реИрди рдмреЙрд░реЛ, рдЬреЗрд╕рди рд╡реЗрд╕реНрдЯрди рджреНрд╡рд╛рд░рд╛ред
1. **[BLIP](https://huggingface.co/docs/transformers/model_doc/blip)** (from Salesforce) released with the paper [BLIP: Bootstrapping Language-Image Pre-training for Unified Vision-Language Understanding and Generation](https://arxiv.org/abs/2201.12086) by Junnan Li, Dongxu Li, Caiming Xiong, Steven Hoi.
2023-03-15 01:49:10 +08:00
1. **[BLIP-2](https://huggingface.co/docs/transformers/model_doc/blip-2)** (Salesforce рд╕реЗ) Junnan Li, Dongxu Li, Silvio Savarese, Steven Hoi. рджреНрд╡рд╛рд░рд╛рдЕрдиреБрд╕рдВрдзрд╛рди рдкрддреНрд░ [BLIP-2: Bootstrapping Language-Image Pre-training with Frozen Image Encoders and Large Language Models](https://arxiv.org/abs/2301.12597) рдХреЗ рд╕рд╛рде рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЧрдпрд╛
1. **[BLOOM](https://huggingface.co/docs/transformers/model_doc/bloom)** (from BigScience workshop) released by the [BigSicence Workshop](https://bigscience.huggingface.co/).
1. **[BORT](https://huggingface.co/docs/transformers/model_doc/bort)** (рдПрд▓реЗрдХреНрд╕рд╛ рд╕реЗ) рдХрд╛рдЧрдЬ рдХреЗ рд╕рд╛рде [рдмреАрдИрдЖрд░рдЯреА рдХреЗ рд▓рд┐рдП рдСрдкреНрдЯрд┐рдорд▓ рд╕рдмрдЖрд░реНрдХрд┐рдЯреЗрдХреНрдЪрд░ рдПрдХреНрд╕рдЯреНрд░реИрдХреНрд╢рди](https://arxiv.org/abs/ 2010.10499) рдПрдбреНрд░рд┐рдпрди рдбреА рд╡рд┐рдВрдЯрд░ рдФрд░ рдбреИрдирд┐рдпрд▓ рдЬреЗ рдкреЗрд░реА рджреНрд╡рд╛рд░рд╛ред
2023-03-15 01:49:10 +08:00
1. **[BridgeTower](https://huggingface.co/docs/transformers/model_doc/bridgetower)** (рд╣рд░рдмрд┐рди рдЗрдВрд╕реНрдЯрд┐рдЯреНрдпреВрдЯ рдСреЮ рдЯреЗрдХреНрдиреЛрд▓реЙрдЬреА/рдорд╛рдЗрдХреНрд░реЛрд╕реЙрдлреНрдЯ рд░рд┐рд╕рд░реНрдЪ рдПрд╢рд┐рдпрд╛/рдЗрдВрдЯреЗрд▓ рд▓реИрдмреНрд╕ рд╕реЗ) рдХрд╛рдЧрдЬ рдХреЗ рд╕рд╛рде [рдмреНрд░рд┐рдЬрдЯреЙрд╡рд░: рд╡рд┐рдЬрди-рд▓реИрдВрдЧреНрд╡реЗрдЬ рд░рд┐рдкреНрд░реЗрдЬреЗрдВрдЯреЗрд╢рди рд▓рд░реНрдирд┐рдВрдЧ рдореЗрдВ рдПрдирдХреЛрдбрд░реНрд╕ рдХреЗ рдмреАрдЪ рдмреНрд░рд┐рдЬ рдмрдирд╛рдирд╛](<https://arxiv.org/abs/2206.08657>) by Xiao Xu, Chenfei Wu, Shachar Rosenman, Vasudev Lal, Wanxiang Che, Nan Duan.
1. **[ByT5](https://huggingface.co/docs/transformers/model_doc/byt5)** (Google рдЕрдиреБрд╕рдВрдзрд╛рди рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдХрд╛рдЧрдЬ [ByT5: рдкреВрд░реНрд╡-рдкреНрд░рд╢рд┐рдХреНрд╖рд┐рдд рдмрд╛рдЗрдЯ-рдЯреВ-рдмрд╛рдЗрдЯ рдореЙрдбрд▓ рдХреЗ рд╕рд╛рде рдПрдХ рдЯреЛрдХрди-рдореБрдХреНрдд рднрд╡рд┐рд╖реНрдп рдХреА рдУрд░] (https://arxiv.org/abs/2105.13626) Linting Xue, Aditya Barua, Noah Constant, рд░рд╛рдореА рдЕрд▓-рд░рдлреВ, рд╢рд░рдг рдирд╛рд░рдВрдЧ, рдорд┐рд╣рд┐рд░ рдХрд╛рд▓реЗ, рдПрдбрдо рд░реЙрдмрд░реНрдЯреНрд╕, рдХреЙрд▓рд┐рди рд░реИрдлреЗрд▓ рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[CamemBERT](https://huggingface.co/docs/transformers/model_doc/camembert)** (рдЗрдирд░рд┐рдпрд╛/рдлреЗрд╕рдмреБрдХ/рд╕реЛрд░рдмреЛрди рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдХрд╛рдЧрдЬ [CamemBERT: рдПрдХ рдЯреЗрд╕реНрдЯреА рдлреНрд░реЗрдВрдЪ рд▓реИрдВрдЧреНрд╡реЗрдЬ рдореЙрдбрд▓](https:// arxiv.org/abs/1911.03894) рд▓реБрдИ рдорд╛рд░реНрдЯрд┐рди*, рдмреЗрдВрдЬрд╛рдорд┐рди рдореБрд▓рд░*, рдкреЗрдбреНрд░реЛ рдЬреЗрд╡рд┐рдпрд░ рдСрд░реНрдЯрд┐рдЬрд╝ рд╕реБрдЖрд░реЗрдЬрд╝*, рдпреЛрдЖрди рдбреНрдпреВрдкреЙрдиреНрдЯ, рд▓реЙрд░реЗрдВрдЯ рд░реЛрдорд░реА, рдПрд░рд┐рдХ рд╡рд┐рд▓реЗрдореЛрдиреНрдЯреЗ рдбреЗ рд▓рд╛ рдХреНрд▓рд░реНрдЬрд░реА, рдЬреИрдореЗ рд╕реЗрдбрд╛рд╣ рдФрд░ рдмреЗрдиреЛрдЗрдЯ рд╕рдЧреЛрдЯ рджреНрд╡рд╛рд░рд╛ред
1. **[CANINE](https://huggingface.co/docs/transformers/model_doc/canine)** (Google рд░рд┐рд╕рд░реНрдЪ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рджрд┐рдпрд╛ рдЧрдпрд╛ рдкреЗрдкрд░ [рдХреИрдирд╛рдЗрди: рдкреНрд░реА-рдЯреНрд░реЗрдирд┐рдВрдЧ рдП рдПрдлрд┐рд╢рд┐рдПрдВрдЯ рдЯреЛрдХрдирд╛рдЗрдЬреЗрд╢рди-рдлреНрд░реА рдПрдирдХреЛрдбрд░ рдлреЙрд░ рд▓реИрдВрдЧреНрд╡реЗрдЬ рд░рд┐рдкреНрд░реЗрдЬреЗрдВрдЯреЗрд╢рди]( https://arxiv.org/abs/2103.06874) рдЬреЛрдирд╛рдерди рдПрдЪ рдХреНрд▓рд╛рд░реНрдХ, рдбреИрди рдЧреИрд░реЗрдЯ, рдпреВрд▓рд┐рдпрд╛ рдЯрд░реНрдХ, рдЬреЙрди рд╡рд┐рдПрдЯрд┐рдВрдЧ рджреНрд╡рд╛рд░рд╛ред
1. **[Chinese-CLIP](https://huggingface.co/docs/transformers/model_doc/chinese_clip)** (from OFA-Sys) released with the paper [Chinese CLIP: Contrastive Vision-Language Pretraining in Chinese](https://arxiv.org/abs/2211.01335) by An Yang, Junshu Pan, Junyang Lin, Rui Men, Yichang Zhang, Jingren Zhou, Chang Zhou.
1. **[CLAP](https://huggingface.co/docs/transformers/model_doc/clap)** (LAION-AI рд╕реЗ) Yusong Wu, Ke Chen, Tianyu Zhang, Yuchen Hui, Taylor Berg-Kirkpatrick, Shlomo Dubnov. рджреНрд╡рд╛рд░рд╛рдЕрдиреБрд╕рдВрдзрд╛рди рдкрддреНрд░ [Large-scale Contrastive Language-Audio Pretraining with Feature Fusion and Keyword-to-Caption Augmentation](https://arxiv.org/abs/2211.06687) рдХреЗ рд╕рд╛рде рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЧрдпрд╛
1. **[CLIP](https://huggingface.co/docs/transformers/model_doc/clip)** (OpenAI рд╕реЗ) рд╕рд╛рде рд╡рд╛рд▓рд╛ рдкреЗрдкрд░ [рд▓рд░реНрдирд┐рдВрдЧ рдЯреНрд░рд╛рдВрд╕рдлрд░реЗрдмрд▓ рд╡рд┐рдЬреБрдЕрд▓ рдореЙрдбрд▓ рдлреНрд░реЙрдо рдиреЗрдЪреБрд░рд▓ рд▓реИрдВрдЧреНрд╡реЗрдЬ рд╕реБрдкрд░рд╡рд┐рдЬрди](https://arxiv.org /abs/2103.00020) рдПрд▓реЗрдХ рд░реИрдбрдлреЛрд░реНрдб, рдЬреЛрдВрдЧ рд╡реВрдХ рдХрд┐рдо, рдХреНрд░рд┐рд╕ рд╣реИрд▓рд╛рд╕реА, рдЖрджрд┐рддреНрдп рд░рдореЗрд╢, рдЧреЗрдмреНрд░рд┐рдпрд▓ рдЧреЛрд╣, рд╕рдВрдзреНрдпрд╛ рдЕрдЧреНрд░рд╡рд╛рд▓, рдЧрд┐рд░реАрд╢ рд╢рд╛рд╕реНрддреНрд░реА, рдЕрдорд╛рдВрдбрд╛ рдПрд╕реНрдХреЗрд▓, рдкрд╛рдореЗрд▓рд╛ рдорд┐рд╢реНрдХрд┐рди, рдЬреИрдХ рдХреНрд▓рд╛рд░реНрдХ, рдЧреНрд░реЗрдЪреЗрди рдХреНрд░реБрдПрдЧрд░, рдЗрд▓реНрдпрд╛ рд╕реБрддреНрд╕реНрдХреЗрд╡рд░ рджреНрд╡рд╛рд░рд╛ред
1. **[CLIPSeg](https://huggingface.co/docs/transformers/model_doc/clipseg)** (from University of G├╢ttingen) released with the paper [Image Segmentation Using Text and Image Prompts](https://arxiv.org/abs/2112.10003) by Timo L├╝ddecke and Alexander Ecker.
1. **[CodeGen](https://huggingface.co/docs/transformers/model_doc/codegen)** (рд╕реЗрд▓реНрд╕рдлреЛрд░реНрд╕ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [рдкреНрд░реЛрдЧреНрд░рд╛рдо рд╕рд┐рдВрдереЗрд╕рд┐рд╕ рдХреЗ рд▓рд┐рдП рдПрдХ рд╕рдВрд╡рд╛рджрд╛рддреНрдордХ рдкреНрд░рддрд┐рдорд╛рди](https://arxiv.org/abs/2203.13474) рдПрд░рд┐рдХ рдирд┐рдЬрдХреИрдВрдк, рдмреЛ рдкреИрдВрдЧ, рд╣рд┐рд░реЛрдЖрдХреА рд╣рдпрд╛рд╢реА, рд▓рд┐рдлреВ рддреВ, рд╣реБрдЖрди рд╡рд╛рдВрдЧ, рдпрд┐рдВрдЧрдмреЛ рдЭреЛрдЙ, рд╕рд┐рд▓реНрд╡рд┐рдпреЛ рд╕рд╛рд╡рд░реЗрд╕, рдХреИрдорд┐рдВрдЧ рдЬрд┐рдУрдВрдЧ рд░рд┐рд▓реАрдЬред
1. **[Conditional DETR](https://huggingface.co/docs/transformers/model_doc/conditional_detr)** (рдорд╛рдЗрдХреНрд░реЛрд╕реЙрдлреНрдЯ рд░рд┐рд╕рд░реНрдЪ рдПрд╢рд┐рдпрд╛ рд╕реЗ) рдХрд╛рдЧрдЬ рдХреЗ рд╕рд╛рде [рдлрд╛рд╕реНрдЯ рдЯреНрд░реЗрдирд┐рдВрдЧ рдХрдиреНрд╡рд░реНрдЬреЗрдВрд╕ рдХреЗ рд▓рд┐рдП рд╕рд╢рд░реНрдд рдбреАрдИрдЯреАрдЖрд░](https://arxiv. org/abs/2108.06152) рдбреЗрдкреВ рдореЗрдВрдЧ, рдЬрд╝рд┐рдпрд╛рдУрдХрд╛рдВрдЧ рдЪреЗрди, рдЬрд╝реЗрдЬрд┐рдпрд╛ рдлреИрди, рдЧреИрдВрдЧ рдЬрд╝реЗрдВрдЧ, рд╣реЛрдЙрдХрд┐рдпрд╛рдВрдЧ рд▓реА, рдпреБрд╣реБрдИ рдпреБрдЖрди, рд▓реЗрдИ рд╕рди, рдЬрд┐рдВрдЧрдбреЛрдВрдЧ рд╡рд╛рдВрдЧ рджреНрд╡рд╛рд░рд╛ред
1. **[ConvBERT](https://huggingface.co/docs/transformers/model_doc/convbert)** (YituTech рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдХрд╛рдЧрдЬ [ConvBERT: рд╕реНрдкреИрди-рдЖрдзрд╛рд░рд┐рдд рдбрд╛рдпрдиреЗрдорд┐рдХ рдХрдирд╡рд▓реНрд╢рди рдХреЗ рд╕рд╛рде BERT рдореЗрдВ рд╕реБрдзрд╛рд░](https://arxiv .org/abs/2008.02496) рдЬрд┐рд╣рд╛рдВрдЧ рдЬрд┐рдпрд╛рдВрдЧ, рд╡реАрд╣рд╛рдУ рдпреВ, рдбрд╛рдХрд╛рди рдЭреЛрдЙ, рдпреБрдирдкреЗрдВрдЧ рдЪреЗрди, рдЬрд┐рдпрд╛рд╢реА рдлреЗрдВрдЧ, рд╢реБрдЗрдЪреЗрдВрдЧ рдпрд╛рди рджреНрд╡рд╛рд░рд╛ред
1. **[ConvNeXT](https://huggingface.co/docs/transformers/model_doc/convnext)** (Facebook AI рд╕реЗ) рд╕рд╛рде рд╡рд╛рд▓рд╛ рдкреЗрдкрд░ [A ConvNet for the 2020s](https://arxiv.org/abs /2201.03545) рдЬрд╝реБрдЖрдВрдЧ рд▓рд┐рдпреВ, рд╣реЗрдВрдЬрд╝реА рдорд╛рдУ, рдЪрд╛рдУ-рдпреБрдЖрди рд╡реВ, рдХреНрд░рд┐рд╕реНрдЯреЛрдлрд╝ рдлреАрдЪрдЯреЗрдирд╣реЛрдлрд╝рд░, рдЯреНрд░реЗрд╡рд░ рдбреЗрд░реЗрд▓, рд╕реИрдирд┐рдВрдЧ рдЬрд╝реА рджреНрд╡рд╛рд░рд╛ред
2023-03-15 01:49:10 +08:00
1. **[ConvNeXTV2](https://huggingface.co/docs/transformers/model_doc/convnextv2)** (from Facebook AI) released with the paper [ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders](https://arxiv.org/abs/2301.00808) by Sanghyun Woo, Shoubhik Debnath, Ronghang Hu, Xinlei Chen, Zhuang Liu, In So Kweon, Saining Xie.
1. **[CPM](https://huggingface.co/docs/transformers/model_doc/cpm)** (рд╕рд┐рдВрдШреБрдЖ рдпреВрдирд┐рд╡рд░реНрд╕рд┐рдЯреА рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [рд╕реАрдкреАрдПрдо: рдП рд▓рд╛рд░реНрдЬ-рд╕реНрдХреЗрд▓ рдЬреЗрдиреЗрд░реЗрдЯрд┐рд╡ рдЪрд╛рдЗрдиреАрдЬ рдкреНрд░реА-рдЯреНрд░реЗрдВрдб рд▓реИрдВрдЧреНрд╡реЗрдЬ рдореЙрдбрд▓](https : //arxiv.org/abs/2012.00413) рдЭреЗрдВрдЧреНрдпрд╛рди рдЭрд╛рдВрдЧ, рдЬреВ рд╣рд╛рди, рд╣рд╛рдУ рдЭреЛрдЙ, рдкреЗрдИ рдХреЗ, рдпреБрдХреНрд╕рд┐рдпрди рдЧреБ, рдбреЗрдорд┐рдВрдЧ рдпреЗ, рдпреБрдЬрд┐рдпрд╛ рдХрд┐рди, рдпреБрд╢реЗрдВрдЧ рд╕реБ, рд╣рд╛рдУрдЭреЗ рдЬреА, рдЬрд┐рдпрд╛рди рдЧреБрдЖрди, рдлреИрдВрдЪрд╛рдУ рдХреНрдпреВрдИ, рдЬрд╝рд┐рдпрд╛рдУрдЭреА рд╡рд╛рдВрдЧ, рдпрд╛рдирд╛рди рдЭреЗрдВрдЧ рджреНрд╡рд╛рд░рд╛ , рдЧреБрдУрдпрд╛рдВрдЧ рдЬрд╝реЗрдВрдЧ, рд╣реБрдЖрдирдХреА рдХрд╛рдУ, рд╢реЗрдВрдЧрдХреА рдЪреЗрди, рдбрд╛рдЗрдХреНрд╕реБрдЖрди рд▓реА, рдЬрд╝реЗрдирдмреЛ рд╕рди, рдЬрд╝рд┐рдпреБрдЖрди рд▓рд┐рдпреВ, рдорд┐рдирд▓реА рд╣реБрдЖрдВрдЧ, рд╡реЗрдВрдЯрд╛рдУ рд╣рд╛рди, рдЬреА рддрд╛рдВрдЧ, рдЬреБрдЖрдирдЬрд╝реА рд▓реА, рдЬрд╝рд┐рдпрд╛рдУрдпрд╛рди рдЭреВ, рдорд╛рдУрд╕реЛрдВрдЧ рд╕рдиред
2023-04-19 22:03:57 +08:00
1. **[CPM-Ant](https://huggingface.co/docs/transformers/model_doc/cpmant)** (from OpenBMB) released by the [OpenBMB](https://www.openbmb.org/).
1. **[CTRL](https://huggingface.co/docs/transformers/model_doc/ctrl)** (рд╕реЗрд▓реНрд╕рдлреЛрд░реНрд╕ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [CTRL: рдП рдХрдВрдбрд┐рд╢рдирд▓ рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░ рд▓реИрдВрдЧреНрд╡реЗрдЬ рдореЙрдбрд▓ рдлреЙрд░ рдХрдВрдЯреНрд░реЛрд▓реЗрдмрд▓ рдЬреЗрдирд░реЗрд╢рди](https://arxiv.org/abs/1909.05858) рдиреАрддреАрд╢ рд╢рд┐рд░реАрд╖ рдХреЗрд╕рдХрд░*, рдмреНрд░рд╛рдпрди рдореИрдХрдХреИрди*, рд▓рд╡ рдЖрд░. рд╡рд╛рд░реНрд╖реНрдгреЗрдп, рдХреИрдорд┐рдВрдЧ рдЬрд┐рдУрдВрдЧ рдФрд░ рд░рд┐рдЪрд░реНрдб рджреНрд╡рд╛рд░рд╛ рд╕реЛрдЪрд░ рджреНрд╡рд╛рд░рд╛ рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[CvT](https://huggingface.co/docs/transformers/model_doc/cvt)** (Microsoft рд╕реЗ) рд╕рд╛рде рдореЗрдВ рджрд┐рдпрд╛ рдЧрдпрд╛ рдкреЗрдкрд░ [CvT: рдЗрдВрдЯреНрд░реЛрдбреНрдпреВрд╕рд┐рдВрдЧ рдХрдирд╡реЙрд▓реНрдпреВрд╢рди рдЯреВ рд╡рд┐рдЬрди рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░реНрд╕](https://arxiv.org/ рдПрдмреНрд╕/2103.15808) рд╣реИрдкрд┐рдВрдЧ рд╡реВ, рдмрд┐рди рдЬрд┐рдУ, рдиреЛрдПрд▓ рдХреЛрдбреЗрд▓рд╛, рдореЗрдВрдЧрдЪреЗрди рд▓рд┐рдпреВ, рдЬрд┐рдпрд╛рдВрдЧ рджрд╛рдИ, рд▓реВ рдпреБрдЖрди, рд▓реЗрдИ рдЭрд╛рдВрдЧ рджреНрд╡рд╛рд░рд╛ред
1. **[Data2Vec](https://huggingface.co/docs/transformers/model_doc/data2vec)** (рдлреЗрд╕рдмреБрдХ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдХрд╛рдЧрдЬ [Data2Vec: рднрд╛рд╖рдг, рджреГрд╖реНрдЯрд┐ рдФрд░ рднрд╛рд╖рд╛ рдореЗрдВ рд╕реНрд╡-рдкрд░реНрдпрд╡реЗрдХреНрд╖рд┐рдд рд╕реАрдЦрдиреЗ рдХреЗ рд▓рд┐рдП рдПрдХ рд╕рд╛рдорд╛рдиреНрдп рдврд╛рдВрдЪрд╛] (https://arxiv.org/abs/2202.03555) рдПрд▓реЗрдХреНрд╕реА рдмрд╛рдПрд╡реНрд╕реНрдХреА, рд╡реЗрдИ-рдирд┐рдВрдЧ рд╕реВ, рдХрд┐рдпрд╛рдирдЯреЛрдВрдЧ рдЬреВ, рдЕрд░реБрдг рдмрд╛рдмреВ, рдЬрд┐рдпрд╛рддрд╛рдУ рдЧреБ, рдорд╛рдЗрдХрд▓ рдФрд▓реА рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[DeBERTa](https://huggingface.co/docs/transformers/model_doc/deberta)** (Microsoft рд╕реЗ) рд╕рд╛рде рдореЗрдВ рджрд┐рдпрд╛ рдЧрдпрд╛ рдкреЗрдкрд░ [DeBERta: рдбрд┐рдХреЛрдбрд┐рдВрдЧ-рдПрдиреНрд╣рд╛рдВрд╕реНрдб BERT рд╡рд┐рдж рдбрд┐рд╕реЗрдВрдЯреИрдВрдЧрд▓реНрдб рдЕрдЯреЗрдВрд╢рди](https://arxiv. org/abs/2006.03654) рдкреЗрдВрдЧрдЪреЗрдВрдЧ рд╣реЗ, рдЬрд╝рд┐рдпрд╛рдУрдбреЛрдВрдЧ рд▓рд┐рдпреВ, рдЬрд┐рдпрд╛рдирдлреЗрдВрдЧ рдЧрд╛рдУ, рд╡реАрдЬрд╝реВ рдЪреЗрди рджреНрд╡рд╛рд░рд╛ред
1. **[DeBERTa-v2](https://huggingface.co/docs/transformers/model_doc/deberta-v2)** (Microsoft рд╕реЗ) рд╕рд╛рде рдореЗрдВ рджрд┐рдпрд╛ рдЧрдпрд╛ рдкреЗрдкрд░ [DeBERTa: рдбрд┐рдХреЛрдбрд┐рдВрдЧ-рдПрдиреНрд╣рд╛рдВрд╕реНрдб BERT рд╡рд┐рде рдбрд┐рд╕реЗрдВрдиреНрдЧрд▓реНрдб рдЕрдЯреЗрдВрд╢рди](https: //arxiv.org/abs/2006.03654) рдкреЗрдВрдЧрдЪреЗрдВрдЧ рд╣реЗ, рдЬрд╝рд┐рдпрд╛рдУрдбреЛрдВрдЧ рд▓рд┐рдпреВ, рдЬрд┐рдпрд╛рдирдлреЗрдВрдЧ рдЧрд╛рдУ, рд╡реАрдЬрд╝реВ рдЪреЗрди рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[Decision Transformer](https://huggingface.co/docs/transformers/model_doc/decision_transformer)** (рдмрд░реНрдХрд▓реЗ/рдлреЗрд╕рдмреБрдХ/рдЧреВрдЧрд▓ рд╕реЗ) рдкреЗрдкрд░ рдХреЗ рд╕рд╛рде [рдбрд┐рд╕реАрдЬрди рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░: рд░реАрдирдлреЛрд░реНрд╕рдореЗрдВрдЯ рд▓рд░реНрдирд┐рдВрдЧ рд╡рд╛рдпрд╛ рд╕реАрдХреНрд╡реЗрдВрд╕ рдореЙрдбрд▓рд┐рдВрдЧ](https : //arxiv.org/abs/2106.01345) рд▓рд┐рд▓реА рдЪреЗрди, рдХреЗрд╡рд┐рди рд▓реВ, рдЕрд░рд╡рд┐рдВрдж рд░рд╛рдЬреЗрд╢реНрд╡рд░рди, рдХрд┐рдорд┐рди рд▓реА, рдЖрджрд┐рддреНрдп рдЧреНрд░реЛрд╡рд░, рдорд╛рдЗрдХрд▓ рд▓рд╛рд╕реНрдХрд┐рди, рдкреАрдЯрд░ рдПрдмреАрд▓, рдЕрд░рд╡рд┐рдВрдж рд╢реНрд░реАрдирд┐рд╡рд╛рд╕, рдЗрдЧреЛрд░ рдореЛрд░реНрдбрдЪ рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[Deformable DETR](https://huggingface.co/docs/transformers/model_doc/deformable_detr)** (рд╕реЗрдВрд╕рдЯрд╛рдЗрдо рд░рд┐рд╕рд░реНрдЪ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [рдбрд┐рдлреЙрд░реНрдореЗрдмрд▓ рдбреАрдИрдЯреАрдЖрд░: рдбрд┐рдлреЙрд░реНрдореЗрдмрд▓ рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░реНрд╕ рдлреЙрд░ рдПрдВрдб-рдЯреВ-рдПрдВрдб рдСрдмреНрдЬреЗрдХреНрдЯ рдбрд┐рдЯреЗрдХреНрд╢рди] (https://arxiv.org/abs/2010.04159) Xizhou Zhu, Weijie Su, Lewei Lu, Bin Li, Xiaogang Wang, рдЬрд┐рдлреЗрдВрдЧ рджрд╛рдИ рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[DeiT](https://huggingface.co/docs/transformers/model_doc/deit)** (рдлреЗрд╕рдмреБрдХ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [рдЯреНрд░реЗрдирд┐рдВрдЧ рдбреЗрдЯрд╛-рдПрдлрд┐рд╢рд┐рдПрдВрдЯ рдЗрдореЗрдЬ рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░ рдФрд░ рдбрд┐рд╕реНрдЯрд┐рд▓реЗрд╢рди рдереНрд░реВ рдЕрдЯреЗрдВрд╢рди](https://arxiv .org/abs/2012.12877) рд╣реНрдпреВрдЧреЛ рдЯреМрд╡реНрд░реЛрди, рдореИрдереНрдпреВ рдХреЙрд░реНрдб, рдореИрдерд┐рдЬреНрд╕ рдбреВрдЬрд╝, рдлрд╝реНрд░рд╛рдВрд╕рд┐рд╕реНрдХреЛ рдорд╕реНрд╕рд╛, рдПрд▓реЗрдХреНрдЬрд╝реЗрдВрдбрд░ рд╕рдмрд▓реЗрд░реЛрд▓реНрд╕, рд╣рд░реНрд╡реЗ рдЬреЗрдЧреМ рджреНрд╡рд╛рд░рд╛ред
2023-04-19 22:03:57 +08:00
1. **[DePlot](https://huggingface.co/docs/transformers/model_doc/deplot)** (Google AI рд╕реЗ) Fangyu Liu, Julian Martin Eisenschlos, Francesco Piccinno, Syrine Krichene, Chenxi Pang, Kenton Lee, Mandar Joshi, Wenhu Chen, Nigel Collier, Yasemin Altun. рджреНрд╡рд╛рд░рд╛рдЕрдиреБрд╕рдВрдзрд╛рди рдкрддреНрд░ [DePlot: One-shot visual language reasoning by plot-to-table translation](https://arxiv.org/abs/2212.10505) рдХреЗ рд╕рд╛рде рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЧрдпрд╛
2023-03-15 01:49:10 +08:00
1. **[DETA](https://huggingface.co/docs/transformers/model_doc/deta)** (from The University of Texas at Austin) released with the paper [NMS Strikes Back](https://arxiv.org/abs/2212.06137) by Jeffrey Ouyang-Zhang, Jang Hyun Cho, Xingyi Zhou, Philipp Kr├дhenb├╝hl.
1. **[DETR](https://huggingface.co/docs/transformers/model_doc/detr)** (рдлреЗрд╕рдмреБрдХ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдХрд╛рдЧрдЬ [рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░реНрд╕ рдХреЗ рд╕рд╛рде рдПрдВрдб-рдЯреВ-рдПрдВрдб рдСрдмреНрдЬреЗрдХреНрдЯ рдбрд┐рдЯреЗрдХреНрд╢рди](https://arxiv. org/abs/2005.12872) рдирд┐рдХреЛрд▓рд╕ рдХреИрд░рд┐рдпрди, рдлрд╝реНрд░рд╛рдВрд╕рд┐рд╕реНрдХреЛ рдорд╕реНрд╕рд╛, рдЧреЗрдмреНрд░рд┐рдпрд▓ рд╕рд┐рдиреЗрд╡, рдирд┐рдХреЛрд▓рд╕ рдЙрд╕реБрдирд┐рдпрд░, рдЕрд▓реЗрдХреНрдЬреЗрдВрдбрд░ рдХрд┐рд░рд┐рд▓реЛрд╡, рд╕рд░реНрдЧреЗрдИ рдЬрд╝рд╛рдЧреЛрд░реБрдпрдХреЛ рджреНрд╡рд╛рд░рд╛ред
1. **[DialoGPT](https://huggingface.co/docs/transformers/model_doc/dialogpt)** (рдорд╛рдЗрдХреНрд░реЛрд╕реЙрдлреНрдЯ рд░рд┐рд╕рд░реНрдЪ рд╕реЗ) рдХрд╛рдЧрдЬ рдХреЗ рд╕рд╛рде [DialoGPT: рдмрдбрд╝реЗ рдкреИрдорд╛рдиреЗ рдкрд░ рдЬрдирд░реЗрдЯрд┐рд╡ рдкреНрд░реА-рдЯреНрд░реЗрдирд┐рдВрдЧ рдлреЙрд░ рдХрдиреНрд╡рд░реНрд╕реЗрд╢рдирд▓ рд░рд┐рд╕реНрдкрд╛рдВрд╕ рдЬреЗрдирд░реЗрд╢рди](https ://arxiv.org/abs/1911.00536) рдпрд┐рдЬрд╝реЗ рдЭрд╛рдВрдЧ, рд╕рд┐рдХреА рд╕рди, рдорд┐рд╢реЗрд▓ рдЧреИрд▓реА, рдпреЗрди-рдЪреБрди рдЪреЗрди, рдХреНрд░рд┐рд╕ рдмреНрд░реЛрдХреЗрдЯ, рдЬрд┐рдпрд╛рдВрдЧ рдЧрд╛рдУ, рдЬрд┐рдпрд╛рдирдлреЗрдВрдЧ рдЧрд╛рдУ, рдЬрд┐рдВрдЧрдЬрд┐рдВрдЧ рд▓рд┐рдпреВ, рдмрд┐рд▓ рдбреЛрд▓рди рджреНрд╡рд╛рд░рд╛ред
1. **[DiNAT](https://huggingface.co/docs/transformers/model_doc/dinat)** (from SHI Labs) released with the paper [Dilated Neighborhood Attention Transformer](https://arxiv.org/abs/2209.15001) by Ali Hassani and Humphrey Shi.
1. **[DistilBERT](https://huggingface.co/docs/transformers/model_doc/distilbert)** (рд╣рдЧрд┐рдВрдЧрдлреЗрд╕ рд╕реЗ), рд╕рд╛рде рдореЗрдВ рдХрд╛рдЧрдЬ [рдбрд┐рд╕реНрдЯрд┐рд▓рдмрд░реНрдЯ, рдмреАрдИрдЖрд░рдЯреА рдХрд╛ рдбрд┐рд╕реНрдЯрд┐рд▓реНрдб рд╡рд░реНрдЬрди: рдЫреЛрдЯрд╛, рддреЗрдЬ, рд╕рд╕реНрддрд╛ рдФрд░ рд╣рд▓реНрдХрд╛] (https://arxiv.org/abs/1910.01108) рд╡рд┐рдХреНрдЯрд░ рд╕рдирд╣, рд▓рд┐рд╕рд╛рдВрдбреНрд░реЗ рдбреЗрдмреНрдпреВ рдФрд░ рдереЙрдорд╕ рд╡реБрд▓реНрдл рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред рдпрд╣реА рддрд░реАрдХрд╛ GPT-2 рдХреЛ [DistilGPT2](https://github.com/huggingface/transformers/tree/main/examples/distillation), RoBERta рд╕реЗ [DistilRoBERta](https://github.com) рдкрд░ рдХрдВрдкреНрд░реЗрд╕ рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рднреА рд▓рд╛рдЧреВ рдХрд┐рдпрд╛ рдЬрд╛рддрд╛ рд╣реИред / рд╣рдЧрд┐рдВрдЧрдлреЗрд╕/рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░реНрд╕/рдЯреНрд░реА/рдореЗрди/рдЙрджрд╛рд╣рд░рдг/рдбрд┐рд╕реНрдЯрд┐рд▓реЗрд╢рди), рдмрд╣реБрднрд╛рд╖реА BERT рд╕реЗ [DistilmBERT](https://github.com/huggingface/transformers/tree/main/examples/distillation) рдФрд░ рдбрд┐рд╕реНрдЯрд┐рд▓рдмрд░реНрдЯ рдХрд╛ рдЬрд░реНрдорди рд╕рдВрд╕реНрдХрд░рдгред
1. **[DiT](https://huggingface.co/docs/transformers/model_doc/dit)** (рдорд╛рдЗрдХреНрд░реЛрд╕реЙрдлреНрдЯ рд░рд┐рд╕рд░реНрдЪ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [DiT: рд╕реЗрд▓реНрдл рд╕реБрдкрд░рд╡рд╛рдЗрдЬреНрдб рдкреНрд░реА-рдЯреНрд░реЗрдирд┐рдВрдЧ рдлреЙрд░ рдбреЙрдХреНрдпреВрдореЗрдВрдЯ рдЗрдореЗрдЬ рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░](https://arxiv.org/abs/2203.02378) рдЬреБрдирд▓реЙрдиреНрдЧ рд▓реА, рдпрд┐рд╣реЗрдВрдЧ рдЬреВ, рдЯреЗрдВрдЧрдЪрд╛рдУ рд▓рд╡, рд▓реЗрдИ рдХреБрдИ, рдЪрд╛ рдЭрд╛рдВрдЧ рджреНрд╡рд╛рд░рд╛ рдлреБрд░реБ рд╡реЗрдИ рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[Donut](https://huggingface.co/docs/transformers/model_doc/donut)** (NAVER рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдХрд╛рдЧрдЬ [OCR-рдореБрдХреНрдд рдбреЙрдХреНрдпреВрдореЗрдВрдЯ рдЕрдВрдбрд░рд╕реНрдЯреИрдВрдбрд┐рдВрдЧ рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░](https://arxiv.org/abs /2111.15664) рдЧреАрд╡реВрдХ рдХрд┐рдо, рдЯреАрдХрдЧреНрдпреВ рд╣реЛрдВрдЧ, рдореВрдирдмрд┐рди рдпрд┐рдо, рдЬрд┐рдпреЛрдВрдЧреНрдпреЛрди рдирд╛рдо, рдЬрд┐рдирдпреЙрдиреНрдЧ рдкрд╛рд░реНрдХ, рдЬрд┐рдирдпреЙрдиреНрдЧ рдпрд┐рдо, рд╡реЛрдирд╕реЗрдУрдХ рд╣реНрд╡рд╛рдВрдЧ, рд╕рд╛рдВрдЧрдбреВ рдпреВрдВ, рдбреЛрдВрдЧрдпреВрди рд╣рд╛рди, рд╕реЗрдЙрдВрдЧреНрдпреБрди рдкрд╛рд░реНрдХ рджреНрд╡рд╛рд░рд╛ред
1. **[DPR](https://huggingface.co/docs/transformers/model_doc/dpr)** (рдлреЗрд╕рдмреБрдХ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [рдУрдкрди-рдбреЛрдореЗрди рдХреНрд╡реЗрд╢реНрдЪрди рдЖрдВрд╕рд░рд┐рдВрдЧ рдХреЗ рд▓рд┐рдП рдбреЗрдВрд╕ рдкреИрд╕реЗрдЬ рд░рд┐рдЯреНрд░реАрд╡рд▓](https://arxiv. org/abs/2004.04906) рд╡реНрд▓рд╛рджрд┐рдореАрд░ рдХрд░рдкреБрдЦрд┐рди, рдмрд░рд▓рд╛рд╕ рдУрдЬрд╝реБрдЬрд╝, рд╕реЗрд╡рди рдорд┐рди, рдкреИрдЯреНрд░рд┐рдХ рд▓реБрдИрд╕, рд▓реЗрдбреЗрд▓ рд╡реВ, рд╕рд░реНрдЧреЗрдИ рдПрдбреБрдиреЛрд╡, рдбреИрдирдХреА рдЪреЗрди, рдФрд░ рд╡реЗрди-рддрд╛рдК рдпрд┐рд╣ рджреНрд╡рд╛рд░рд╛ред
1. **[DPT](https://huggingface.co/docs/transformers/master/model_doc/dpt)** (рдЗрдВрдЯреЗрд▓ рд▓реИрдмреНрд╕ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдХрд╛рдЧрдЬ [рд╡рд┐рдЬрд╝рди рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░реНрд╕ рдлреЙрд░ рдбреЗрдВрд╕ рдкреНрд░реЗрдбрд┐рдХреНрд╢рди](https://arxiv.org /abs/2103.13413) рд░реЗрдиреЗ рд░реИрдирдлреНрдЯрд▓, рдПрд▓реЗрдХреНрд╕реА рдмреЛрдЪрдХреЛрд╡рд╕реНрдХреА, рд╡реНрд▓рд╛рджрд▓реЗрди рдХреЛрд▓реНрдЯрди рджреНрд╡рд╛рд░рд╛ред
1. **[EfficientFormer](https://huggingface.co/docs/transformers/model_doc/efficientformer)** (from Snap Research) released with the paper [EfficientFormer: Vision Transformers at MobileNetSpeed](https://arxiv.org/abs/2206.01191) by Yanyu Li, Geng Yuan, Yang Wen, Ju Hu, Georgios Evangelidis, Sergey Tulyakov, Yanzhi Wang, Jian Ren.
2023-03-15 01:49:10 +08:00
1. **[EfficientNet](https://huggingface.co/docs/transformers/model_doc/efficientnet)** (from Google Brain) released with the paper [EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks](https://arxiv.org/abs/1905.11946) by Mingxing Tan, Quoc V. Le.
1. **[ELECTRA](https://huggingface.co/docs/transformers/model_doc/electra)** (Google рд░рд┐рд╕рд░реНрдЪ/рд╕реНрдЯреИрдирдлреЛрд░реНрдб рдпреВрдирд┐рд╡рд░реНрд╕рд┐рдЯреА рд╕реЗ) рд╕рд╛рде рдореЗрдВ рджрд┐рдпрд╛ рдЧрдпрд╛ рдкреЗрдкрд░ [рдЗрд▓реЗрдХреНрдЯреНрд░рд╛: рдЬреЗрдирд░реЗрдЯрд░ рдХреЗ рдмрдЬрд╛рдп рднреЗрджрднрд╛рд╡ рдХрд░рдиреЗ рд╡рд╛рд▓реЗ рдХреЗ рд░реВрдк рдореЗрдВ рдЯреЗрдХреНрд╕реНрдЯ рдПрдиреНрдХреЛрдбрд░реНрд╕ рдХрд╛ рдкреВрд░реНрд╡-рдкреНрд░рд╢рд┐рдХреНрд╖рдг] (https://arxiv.org/abs/2003.10555) рдХреЗрд╡рд┐рди рдХреНрд▓рд╛рд░реНрдХ, рдорд┐рдиреНрд╣-рдерд╛рдВрдЧ рд▓реБрдУрдВрдЧ, рдХреНрд╡реЛрдХ рд╡реА. рд▓реЗ, рдХреНрд░рд┐рд╕реНрдЯреЛрдлрд░ рдбреА. рдореИрдирд┐рдВрдЧ рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
[WIP] add EnCodec model (#23655) * boilerplate stuff * messing around with the feature extractor * fix feature extractor * unit tests for feature extractor * rename speech to audio * quick-and-dirty import of Meta's code * import weights (sort of) * cleaning up * more cleaning up * move encoder/decoder args into config * cleanup model * rename EnCodec -> Encodec * RVQ parameters in config * add slow test * add lstm init and test_init * Add save & load * finish EncodecModel * remove decoder_input_values as they are ont used anywhere (not removed from doc yet) * fix test feature extraction model name * Add better slow test * Fix tests * some fixup and cleaning * Improve further * cleaning up quantizer * fix up conversion script * test don't pass, _encode_fram does not work * update tests with output per encode and decode * more cleanup * rename _codebook * remove old config cruft * ratios & hop_length * use ModuleList instead of Sequential * clean up resnet block * update types * update tests * fixup * quick cleanup * fix padding * more styl,ing * add patrick feedback * fix copies * fixup * fix lstm * fix shape issues * fixup * rename conv layers * fixup * fix decoding * small conv refactoring * remove norm_params * simplify conv layers * rename conv layers * stuff * Clean up * Add padding logic use padding mask small conv refactoring remove norm_params simplify conv layers rename conv layers stuff add batched test update Clean up merge and update for padding fix padding fixup * clean up more * clean up more * More clean ups * cleanup convolutions * typo * fix typos * fixup * build PR doc? * start refactoring docstring * fix don't pad when no strid and chunk * update docstring * update docstring * nits * update going to lunch * update config and model * fix broken testse (becaue of the config changes) * fix scale computation * fixu[ * only return dict if speciefied or if config returns it * remove todos * update defaults in config * update conversion script * fix doctest * more docstring + fixup * nits on batched_tests * more nits * Apply suggestions from code review Co-authored-by: Patrick von Platen <patrick.v.platen@gmail.com> * update basxed on review * fix update * updaet tests * Apply suggestions from code review Co-authored-by: Sylvain Gugger <35901082+sgugger@users.noreply.github.com> * fixup * add overlap and chunl_length_s * cleanup feature extraction * teste edge cases truncation and padding * correct processor values * update config encodec, nits * fix tests * fixup * fix 24Hz test * elle tests are green * fix fixup * Apply suggestions from code review * revert readme changes * fixup * add example * use facebook checkpoints * fix typo * no pipeline tests * use slef.pad everywhere we can * Apply suggestions from code review Co-authored-by: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * update based on review * update * update mdx * fix bug and tests * fixup * fix doctest * remove comment * more nits * add more coverage for `test_truncation_and_padding` * fixup * add last test * fix text * nits * Update tests/models/encodec/test_modeling_encodec.py Co-authored-by: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * take care of the last comments * typo * fix test * nits * fixup * Update src/transformers/models/encodec/feature_extraction_encodec.py Co-authored-by: amyeroberts <22614925+amyeroberts@users.noreply.github.com> --------- Co-authored-by: Patrick von Platen <patrick.v.platen@gmail.com> Co-authored-by: arthur.zucker@gmail.com <arthur.zucker@gmail.com> Co-authored-by: Arthur <48595927+ArthurZucker@users.noreply.github.com> Co-authored-by: Sylvain Gugger <35901082+sgugger@users.noreply.github.com> Co-authored-by: amyeroberts <22614925+amyeroberts@users.noreply.github.com>
2023-06-15 00:57:23 +08:00
1. **[EnCodec](https://huggingface.co/docs/transformers/main/model_doc/encodec)** (Meta AI рд╕реЗ) Alexandre D├йfossez, Jade Copet, Gabriel Synnaeve, Yossi Adi. рджреНрд╡рд╛рд░рд╛рдЕрдиреБрд╕рдВрдзрд╛рди рдкрддреНрд░ [High Fidelity Neural Audio Compression](https://arxiv.org/abs/2210.13438) рдХреЗ рд╕рд╛рде рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЧрдпрд╛
1. **[EncoderDecoder](https://huggingface.co/docs/transformers/model_doc/encoder-decoder)** (Google рд░рд┐рд╕рд░реНрдЪ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рджрд┐рдпрд╛ рдЧрдпрд╛ рдкреЗрдкрд░ [рд╕реАрдХреНрд╡реЗрдВрд╕ рдЬреЗрдирд░реЗрд╢рди рдЯрд╛рд╕реНрдХ рдХреЗ рд▓рд┐рдП рдкреНрд░реА-рдЯреНрд░реЗрдВрдб рдЪреЗрдХрдкреЙрдЗрдВрдЯ рдХрд╛ рдЗрд╕реНрддреЗрдорд╛рд▓ рдХрд░рдирд╛](https:/ /arxiv.org/abs/1907.12461) рд╕рд╛рд╢рд╛ рд░реЛрдареЗ, рд╢рд╢рд┐ рдирд╛рд░рд╛рдпрдг, рдЕрд▓рд┐рдпрд╛рдХреНрд╕рд┐ рд╕реЗрд╡реЗрд░рд┐рди рджреНрд╡рд╛рд░рд╛ред
1. **[ERNIE](https://huggingface.co/docs/transformers/model_doc/ernie)**(Baidu рд╕реЗ) рд╕рд╛рде рджреЗрдиреЗ рд╡рд╛рд▓рд╛ рдкреЗрдкрд░ [ERNIE: рдПрдиреНрд╣рд╛рдВрд╕реНрдб рд░рд┐рдкреНрд░реЗрдЬреЗрдВрдЯреЗрд╢рди рдереНрд░реВ рдиреЙрд▓реЗрдЬ рдЗрдВрдЯреАрдЧреНрд░реЗрд╢рди](https://arxiv.org/abs/1904.09223) рдпреВ рд╕рди, рд╢реБрдУрд╣реБрдЖрди рд╡рд╛рдВрдЧ, рдпреБрдХреБрди рд▓реА, рд╢рд┐рдХреБрди рдлреЗрдВрдЧ, рдЬрд╝реБрдИ рдЪреЗрди, рд╣рд╛рди рдЭрд╛рдВрдЧ, рд╢рд┐рди рддрд┐рдпрд╛рди, рдбреИрдирдХреНрд╕рд┐рдпрд╛рдВрдЧ рдЭреВ, рд╣рд╛рдУ рддрд┐рдпрд╛рди, рд╣реБрдЖ рд╡реВ рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
2023-03-15 01:49:10 +08:00
1. **[ErnieM](https://huggingface.co/docs/transformers/model_doc/ernie_m)** (Baidu рд╕реЗ) Xuan Ouyang, Shuohuan Wang, Chao Pang, Yu Sun, Hao Tian, Hua Wu, Haifeng Wang. рджреНрд╡рд╛рд░рд╛рдЕрдиреБрд╕рдВрдзрд╛рди рдкрддреНрд░ [ERNIE-M: Enhanced Multilingual Representation by Aligning Cross-lingual Semantics with Monolingual Corpora](https://arxiv.org/abs/2012.15674) рдХреЗ рд╕рд╛рде рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЧрдпрд╛
1. **[ESM](https://huggingface.co/docs/transformers/model_doc/esm)** (рдореЗрдЯрд╛ AI рд╕реЗ) рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░ рдкреНрд░реЛрдЯреАрди рднрд╛рд╖рд╛ рдореЙрдбрд▓ рд╣реИрдВред **ESM-1b** рдкреЗрдкрд░ рдХреЗ рд╕рд╛рде рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЧрдпрд╛ рдерд╛ [ рдЕрд▓реЗрдХреНрдЬреЗрдВрдбрд░ рд░рд╛рдЗрд╡реНрд╕, рдЬреЛрд╢реБрдЖ рдореЗрдпрд░, рдЯреЙрдо рд╕рд░реНрдХреБ, рд╕рд┐рджреНрдзрд╛рд░реНрде рдЧреЛрдпрд▓, рдЬрд╝реЗрдорд┐рдВрдЧ рд▓рд┐рди рджреНрд╡рд╛рд░рд╛ рдЬреИрд╡рд┐рдХ рд╕рдВрд░рдЪрдирд╛ рдФрд░ рдХрд╛рд░реНрдп рдЕрд╕реБрд░рдХреНрд╖рд┐рдд рд╕реАрдЦрдиреЗ рдХреЛ 250 рдорд┐рд▓рд┐рдпрди рдкреНрд░реЛрдЯреАрди рдЕрдиреБрдХреНрд░рдореЛрдВ рддрдХ рд╕реНрдХреЗрд▓ рдХрд░рдиреЗ рд╕реЗ рдЙрднрд░рддрд╛ рд╣реИ] (https://www.pnas.org/content/118/15/e2016239118) рдЬреЗрд╕рди рд▓рд┐рдпреВ, рдбреЗрдореА рдЧреБрдУ, рдорд╛рдпрд▓ рдУрдЯ, рд╕реА. рд▓реЙрд░реЗрдВрд╕ рдЬрд╝рд┐рдЯрдирд┐рдХ, рдЬреЗрд░реА рдорд╛ рдФрд░ рд░реЙрдм рдлрд░реНрдЧрд╕ред **ESM-1v** рдХреЛ рдкреЗрдкрд░ рдХреЗ рд╕рд╛рде рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЧрдпрд╛ рдерд╛ [рднрд╛рд╖рд╛ рдореЙрдбрд▓ рдкреНрд░реЛрдЯреАрди рдлрд╝рдВрдХреНрд╢рди рдкрд░ рдЙрддреНрдкрд░рд┐рд╡рд░реНрддрди рдХреЗ рдкреНрд░рднрд╛рд╡реЛрдВ рдХреА рд╢реВрдиреНрдп-рд╢реЙрдЯ рднрд╡рд┐рд╖реНрдпрд╡рд╛рдгреА рдХреЛ рд╕рдХреНрд╖рдо рдХрд░рддреЗ рд╣реИрдВ] (https://doi.org/10.1101/2021.07.09.450648) рдЬреЛрд╢реБрдЖ рдореЗрдпрд░, рд░реЛрд╢рди рд░рд╛рд╡, рд░реЙрдмрд░реНрдЯ рд╡реЗрд░рдХреБрдЗрд▓, рдЬреЗрд╕рди рд▓рд┐рдпреВ, рдЯреЙрдо рд╕рд░реНрдХреБ рдФрд░ рдЕрд▓реЗрдХреНрдЬреЗрдВрдбрд░ рд░рд╛рдЗрд╡реНрд╕ рджреНрд╡рд╛рд░рд╛ред **ESM-2** рдХреЛ рдкреЗрдкрд░ рдХреЗ рд╕рд╛рде рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЧрдпрд╛ рдерд╛ [рднрд╛рд╖рд╛ рдореЙрдбрд▓ рд╡рд┐рдХрд╛рд╕ рдХреЗ рдкреИрдорд╛рдиреЗ рдкрд░ рдкреНрд░реЛрдЯреАрди рдЕрдиреБрдХреНрд░рдо рд╕рдЯреАрдХ рд╕рдВрд░рдЪрдирд╛ рднрд╡рд┐рд╖реНрдпрд╡рд╛рдгреА рдХреЛ рд╕рдХреНрд╖рдо рдХрд░рддреЗ рд╣реИрдВ](https://doi.org/10.1101/2022.07.20.500902) рдЬрд╝реЗрдорд┐рдВрдЧ рд▓рд┐рди, рд╣рд▓реАрд▓ рдЕрдХрд┐рди, рд░реЛрд╢рди рд░рд╛рд╡, рдмреНрд░рд╛рдпрди рд╣реА, рдЭреЛрдВрдЧрдХрд╛рдИ рдЭреВ, рд╡реЗрдВрдЯрд┐рдВрдЧ рд▓реВ, рдП рджреНрд╡рд╛рд░рд╛ рд▓рд╛рди рдбреЙрд╕ рд╕реИрдВрдЯреЛрд╕ рдХреЛрд╕реНрдЯрд╛, рдорд░рд┐рдпрдо рдлрд╝рдЬрд╝рд▓-рдЬрд╝рд░рдВрдбреА, рдЯреЙрдо рд╕рд░реНрдХреВ, рд╕рд╛рд▓ рдХреИрдВрдбрд┐рдбреЛ, рдЕрд▓реЗрдХреНрдЬреЗрдВрдбрд░ рд░рд╛рдЗрд╡реНрд╕ред
Falcon port (#24523) * Initial commit * Update src/transformers/models/falcon/configuration_falcon.py Co-authored-by: Sylvain Gugger <35901082+sgugger@users.noreply.github.com> * Update src/transformers/models/falcon/configuration_falcon.py Co-authored-by: Sylvain Gugger <35901082+sgugger@users.noreply.github.com> * Cleanup config docstring * Update src/transformers/models/falcon/configuration_falcon.py Co-authored-by: Sylvain Gugger <35901082+sgugger@users.noreply.github.com> * Convert to relative imports * Remove torch < 1.8 warning * Restructure cos_sin header * qkv -> query, key, value * Refactor attention calculation * Add a couple of config variables to account for the different checkpoints * Successful merging of the code paths! * Fix misplaced line in the non-parallel attention path * Update config and tests * Add a pad_token_id when testing * Support output_attentions when alibi is None * make fixup * Skip KV cache shape test * No more _keys_to_ignore_on_load_missing * Simplify self attention a bit * Simplify self attention a bit * make fixup * stash commit * Some more attention mask updates * Should pass all tests except assisted generation! * Add big model generation test * make fixup * Add temporary workaround for test * Test overrides for assisted generation * Update src/transformers/models/falcon/modeling_falcon.py Co-authored-by: Arthur <48595927+ArthurZucker@users.noreply.github.com> * Update src/transformers/models/falcon/modeling_falcon.py Co-authored-by: Arthur <48595927+ArthurZucker@users.noreply.github.com> * Update src/transformers/models/falcon/modeling_falcon.py Co-authored-by: Arthur <48595927+ArthurZucker@users.noreply.github.com> * Update tests/models/falcon/test_modeling_falcon.py Co-authored-by: Arthur <48595927+ArthurZucker@users.noreply.github.com> * Test overrides for assisted generation * Add generation demo * Update copyright * Make the docstring model actually small * Add module-level docstring * Remove all assertions * Add copied from bloom * Reformat the QKV layer * Add copied from bloom * Update src/transformers/models/falcon/modeling_falcon.py Co-authored-by: Arthur <48595927+ArthurZucker@users.noreply.github.com> * Remove unused line and reformat * No single letter variables * Cleanup return names * Add copied from line * Remove the deprecated arguments blocks * Change the embeddings test to an alibi on/off test * Remove position_ids from FalconForQA * Remove old check for token type IDs * Fix the alibi path when multi_query is False * Update src/transformers/models/falcon/modeling_falcon.py Co-authored-by: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Update src/transformers/models/falcon/modeling_falcon.py Co-authored-by: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Update tests/models/falcon/test_modeling_falcon.py Co-authored-by: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Update config naming * Fix typo for new_decoder_architecture * Add some comments * Fix docstring * Fix docstring * Create range in the right dtype from the start * Review comment cleanup * n_head_kv -> num_kv_heads * self.alibi -> self.use_alibi * self.num_kv -> self.num_kv_heads * Reorder config args * Made alibi arguments Optional * Add all model docstrings * Add extra checkpoints * Add author info for Falcon * Stop removing token_type_ids because our checkpoints shouldn't return it anymore * Add one hopeful comment for the future * Fix typo * Update tests, fix cache issue for generation * Use -1e9 instead of -inf to avoid float overflow * Recompute the rotary embeddings much less often * Re-enable disabled tests * One final fix to attention mask calculation, and update tests * Cleanup targeting falcon-40b equivalency * Post-rebase docs update * Update docstrings, especially in the config * More descriptive variable names, and comments where we can't rename them --------- Co-authored-by: Sylvain Gugger <35901082+sgugger@users.noreply.github.com> Co-authored-by: Arthur <48595927+ArthurZucker@users.noreply.github.com> Co-authored-by: amyeroberts <22614925+amyeroberts@users.noreply.github.com>
2023-07-11 20:36:31 +08:00
1. **[Falcon](https://huggingface.co/docs/transformers/main/model_doc/falcon)** (from Technology Innovation Institute) by Almazrouei, Ebtesam and Alobeidli, Hamza and Alshamsi, Abdulaziz and Cappelli, Alessandro and Cojocaru, Ruxandra and Debbah, Merouane and Goffinet, Etienne and Heslow, Daniel and Launay, Julien and Malartic, Quentin and Noune, Badreddine and Pannier, Baptiste and Penedo, Guilherme.
[WIP] add SpeechT5 model (#18922) * make SpeechT5 model by copying Wav2Vec2 * add paper to docs * whoops added docs in wrong file * remove SpeechT5Tokenizer + put CTC back in the name * remove deprecated class * remove unused docstring * delete SpeechT5FeatureExtractor, use Wav2Vec2FeatureExtractor instead * remove classes we don't need right now * initial stab at speech encoder prenet * add more speech encoder prenet stuff * improve SpeechEncoderPrenet * add encoder (not finished yet) * add relative position bias to self-attention * add encoder CTC layers * fix formatting * add decoder from BART, doesn't work yet * make it work with generate loop * wrap the encoder into a speech encoder class * wrap the decoder in a text decoder class * changed my mind * changed my mind again ;-) * load decoder weights, make it work * add weights for text decoder postnet * add SpeechT5ForCTC model that uses only the encoder * clean up EncoderLayer and DecoderLayer * implement _init_weights in SpeechT5PreTrainedModel * cleanup config + Encoder and Decoder * add head + cross attention masks * improve doc comments * fixup * more cleanup * more fixup * TextDecoderPrenet works now, thanks Kendall * add CTC loss * add placeholders for other pre/postnets * add type annotation * fix freeze_feature_encoder * set padding tokens to 0 in decoder attention mask * encoder attention mask downsampling * remove features_pen calculation * disable the padding tokens thing again * fixup * more fixup * code review fixes * rename encoder/decoder wrapper classes * allow checkpoints to be loaded into SpeechT5Model * put encoder into wrapper for CTC model * clean up conversion script * add encoder for TTS model * add speech decoder prenet * add speech decoder post-net * attempt to reconstruct the generation loop * add speech generation loop * clean up generate_speech * small tweaks * fix forward pass * enable always dropout on speech decoder prenet * sort declaration * rename models * fixup * fix copies * more fixup * make consistency checker happy * add Seq2SeqSpectrogramOutput class * doc comments * quick note about loss and labels * add HiFi-GAN implementation (from Speech2Speech PR) * rename file * add vocoder to TTS model * improve vocoder * working on tokenizer * more better tokenizer * add CTC tokenizer * fix decode and batch_code in CTC tokenizer * fix processor * two processors and feature extractors * use SpeechT5WaveformFeatureExtractor instead of Wav2Vec2 * cleanup * more cleanup * even more fixup * notebooks * fix log-mel spectrograms * support reduction factor * fixup * shift spectrograms to right to create decoder inputs * return correct labels * add labels for stop token prediction * fix doc comments * fixup * remove SpeechT5ForPreTraining * more fixup * update copyright headers * add usage examples * add SpeechT5ProcessorForCTC * fixup * push unofficial checkpoints to hub * initial version of tokenizer unit tests * add slow test * fix failing tests * tests for CTC tokenizer * finish CTC tokenizer tests * processor tests * initial test for feature extractors * tests for spectrogram feature extractor * fixup * more fixup * add decorators * require speech for tests * modeling tests * more tests for ASR model * fix imports * add fake tests for the other models * fixup * remove jupyter notebooks * add missing SpeechT5Model tests * add missing tests for SpeechT5ForCTC * add missing tests for SpeechT5ForTextToSpeech * sort tests by name * fix Hi-Fi GAN tests * fixup * add speech-to-speech model * refactor duplicate speech generation code * add processor for SpeechToSpeech model * add usage example * add tests for speech-to-speech model * fixup * enable gradient checkpointing for SpeechT5FeatureEncoder * code review * push_to_hub now takes repo_id * improve doc comments for HiFi-GAN config * add missing test * add integration tests * make number of layers in speech decoder prenet configurable * rename variable * rename variables * add auto classes for TTS and S2S * REMOVE CTC!!! * S2S processor does not support save/load_pretrained * fixup * these models are now in an auto mapping * fix doc links * rename HiFiGAN to HifiGan, remove separate config file * REMOVE auto classes * there can be only one * fixup * replace assert * reformat * feature extractor can process input and target at same time * update checkpoint names * fix commit hash
2023-02-04 01:43:46 +08:00
1. **[FLAN-T5](https://huggingface.co/docs/transformers/model_doc/flan-t5)** (from Google AI) released in the repository [google-research/t5x](https://github.com/google-research/t5x/blob/main/docs/models.md#flan-t5-checkpoints) by Hyung Won Chung, Le Hou, Shayne Longpre, Barret Zoph, Yi Tay, William Fedus, Eric Li, Xuezhi Wang, Mostafa Dehghani, Siddhartha Brahma, Albert Webson, Shixiang Shane Gu, Zhuyun Dai, Mirac Suzgun, Xinyun Chen, Aakanksha Chowdhery, Sharan Narang, Gaurav Mishra, Adams Yu, Vincent Zhao, Yanping Huang, Andrew Dai, Hongkun Yu, Slav Petrov, Ed H. Chi, Jeff Dean, Jacob Devlin, Adam Roberts, Denny Zhou, Quoc V. Le, and Jason Wei
2023-04-19 22:03:57 +08:00
1. **[FLAN-UL2](https://huggingface.co/docs/transformers/model_doc/flan-ul2)** (from Google AI) released in the repository [google-research/t5x](https://github.com/google-research/t5x/blob/main/docs/models.md#flan-ul2-checkpoints) by Hyung Won Chung, Le Hou, Shayne Longpre, Barret Zoph, Yi Tay, William Fedus, Eric Li, Xuezhi Wang, Mostafa Dehghani, Siddhartha Brahma, Albert Webson, Shixiang Shane Gu, Zhuyun Dai, Mirac Suzgun, Xinyun Chen, Aakanksha Chowdhery, Sharan Narang, Gaurav Mishra, Adams Yu, Vincent Zhao, Yanping Huang, Andrew Dai, Hongkun Yu, Slav Petrov, Ed H. Chi, Jeff Dean, Jacob Devlin, Adam Roberts, Denny Zhou, Quoc V. Le, and Jason Wei
1. **[FlauBERT](https://huggingface.co/docs/transformers/model_doc/flaubert)** (CNRS рд╕реЗ) рд╕рд╛рде рд╡рд╛рд▓рд╛ рдкреЗрдкрд░ [FlauBERT: Unsupervised Language Model Pre-training for рдлрд╝реНрд░реЗрдВрдЪ](https://arxiv .org/abs/1912.05372) Hang Le, Lo├пc Vial, Jibril Frej, Vincent Segonne, Maximin Coavoux, рдмреЗрдВрдЬрд╛рдорд┐рди рд▓реЗрдХреЛрдЙрдЯреЗрдХреНрд╕, рдЕрд▓реЗрдХреНрдЬреЗрдВрдбреНрд░реЗ рдЕрд▓реНрд▓рд╛рдЙрдЬрд╝реЗрди, рдмреЗрдиреЛрдЗрдЯ рдХреНрд░реИрдмреЗ, рд▓реЙрд░реЗрдВрдЯ рдмреЗрд╕реЗрд╕рд┐рдпрд░, рдбрд┐рдбрд┐рдПрд░ рд╢реНрд╡рд╛рдм рджреНрд╡рд╛рд░рд╛ред
1. **[FLAVA](https://huggingface.co/docs/transformers/model_doc/flava)** (FLAVA: A рдлрд╛рдЙрдВрдбреЗрд╢рдирд▓ рд▓реИрдВрдЧреНрд╡реЗрдЬ рдПрдВрдб рд╡рд┐рдЬрди рдЕрд▓рд╛рдЗрдирдореЗрдВрдЯ рдореЙрдбрд▓) (https://arxiv) рд╕рд╛рде рд╡рд╛рд▓рд╛ рдкреЗрдкрд░ .org/abs/2112.04482) рдЕрдордирдкреНрд░реАрдд рд╕рд┐рдВрд╣, рд░реЛрдВрдЧрд╣рд╛рдВрдЧ рд╣реВ, рд╡реЗрджрд╛рдиреБрдЬ рдЧреЛрд╕реНрд╡рд╛рдореА, рдЧреБрдЗрд▓реНрдпреВрдо рдХреБрдПрд░реЙрди, рд╡реЛрдЬреНрд╢рд┐рдПрдХ рдЧрд╛рд▓реБрдмрд╛, рдорд╛рд░реНрдХрд╕ рд░реЛрд╣рд░рдмреИрдХ, рдФрд░ рдбреМрд╡реЗ рдХреАрд▓рд╛ рджреНрд╡рд╛рд░рд╛ред
1. **[FNet](https://huggingface.co/docs/transformers/model_doc/fnet)** (рдЧреВрдЧрд▓ рд░рд┐рд╕рд░реНрдЪ рд╕реЗ) рд╕рд╛рде рд╡рд╛рд▓рд╛ рдкреЗрдкрд░ [FNet: рдорд┐рдХреНрд╕рд┐рдВрдЧ рдЯреЛрдХрди рд╡рд┐рдж рдлреВрд░рд┐рдпрд░ рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдореНрд╕](https://arxiv.org /abs/2105.03824) рдЬреЗрдореНрд╕ рд▓реА-рдереЙрд░реНрдк, рдЬреЛрд╢реБрдЖ рдЖрдЗрдВрд╕реНрд▓реА, рдЗрд▓реНрдпрд╛ рдПрдХрд╕реНрдЯреАрди, рд╕реИрдВрдЯрд┐рдпрд╛рдЧреЛ рдУрдВрдЯрд╛рдирди рджреНрд╡рд╛рд░рд╛ред
Add swiftformer (#22686) * Commit the automatically generated code using add-new-model-like * Update description at swiftformer.mdx file * remove autogenerated code for MaskedImageModeling * update weight conversion scripts * Update modeling_swiftformer.py * update configuration_swiftformer.py * Update test_modeling_swiftformer.py * update modeling code - remove einops dependency * Update _toctree.yml * update modeling code - remove copied from comments * update docs * Revert "update docs" This reverts commit c2e05e2998fe2cd6eaee8b8cc31aca5222bac9fb. * update docs * remove unused reference SwiftFormerImageProcessor * update dependency_versions_table.py * update swiftformer.mdx * update swiftformer.mdx * change model output type - no attentions * update model org name * Fix typo * fix copies * Update tests/models/swiftformer/test_modeling_swiftformer.py Co-authored-by: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Update src/transformers/models/auto/image_processing_auto.py Co-authored-by: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Update src/transformers/models/auto/feature_extraction_auto.py Co-authored-by: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Update docs/source/en/model_doc/swiftformer.mdx Co-authored-by: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Update src/transformers/models/swiftformer/configuration_swiftformer.py Co-authored-by: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Apply suggestions from code review Co-authored-by: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Apply suggestions from code review Co-Authored-By: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Apply suggestions from code review Co-Authored-By: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Apply suggestions from code review Co-Authored-By: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Update modeling_swiftformer.py fix-copies * make style, make quality, fix-copies * Apply suggestions from code review Co-Authored-By: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Apply suggestions from code review Co-Authored-By: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * make style Co-Authored-By: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Add suggestions from code review Co-Authored-By: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Add suggestions from code review Co-Authored-By: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * make fix-copies * Update modeling_swiftformer.py * Update modeling_swiftformer.py * Add suggestions from code review Co-Authored-By: amyeroberts <22614925+amyeroberts@users.noreply.github.com> --------- Co-authored-by: amyeroberts <22614925+amyeroberts@users.noreply.github.com>
2023-05-12 18:52:31 +08:00
1. **[FocalNet](https://huggingface.co/docs/transformers/model_doc/focalnet)** (Microsoft Research рд╕реЗ) Jianwei Yang, Chunyuan Li, Xiyang Dai, Lu Yuan, Jianfeng Gao. рджреНрд╡рд╛рд░рд╛рдЕрдиреБрд╕рдВрдзрд╛рди рдкрддреНрд░ [Focal Modulation Networks](https://arxiv.org/abs/2203.11926) рдХреЗ рд╕рд╛рде рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЧрдпрд╛
1. **[Funnel Transformer](https://huggingface.co/docs/transformers/model_doc/funnel)** (рд╕реАрдПрдордпреВ/рдЧреВрдЧрд▓ рдмреНрд░реЗрди рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдХрд╛рдЧрдЬ [рдлрд╝рдирд▓-рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░: рдХреБрд╢рд▓ рднрд╛рд╖рд╛ рдкреНрд░рд╕рдВрд╕реНрдХрд░рдг рдХреЗ рд▓рд┐рдП рдЕрдиреБрдХреНрд░рдорд┐рдХ рдЕрддрд┐рд░реЗрдХ рдХреЛ рдЫрд╛рдирдирд╛](https://arxiv.org/abs/2006.03236) рдЬрд┐рд╣рд╛рдВрдЧ рджрд╛рдИ, рдЧреБрдУрдХреБрди рд▓рд╛рдИ, рдпрд┐рдорд┐рдВрдЧ рдпрд╛рдВрдЧ, рдХреНрд╡реЛрдХ рд╡реА. рд▓реЗ тАЛтАЛрджреНрд╡рд╛рд░рд╛ рд░рд┐рд╣рд╛рдИред
1. **[GIT](https://huggingface.co/docs/transformers/model_doc/git)** (from Microsoft Research) released with the paper [GIT: A Generative Image-to-text Transformer for Vision and Language](https://arxiv.org/abs/2205.14100) by Jianfeng Wang, Zhengyuan Yang, Xiaowei Hu, Linjie Li, Kevin Lin, Zhe Gan, Zicheng Liu, Ce Liu, Lijuan Wang.
1. **[GLPN](https://huggingface.co/docs/transformers/model_doc/glpn)** (KAIST рд╕реЗ) рд╕рд╛рде рд╡рд╛рд▓рд╛ рдкреЗрдкрд░ [рд╡рд░реНрдЯрд┐рдХрд▓ рдХрдЯрдбреЗрдкреНрде рдХреЗ рд╕рд╛рде рдореЛрдиреЛрдХреБрд▓рд░ рдбреЗрдкреНрде рдПрд╕реНрдЯреАрдореЗрд╢рди рдХреЗ рд▓рд┐рдП рдЧреНрд▓реЛрдмрд▓-рд▓реЛрдХрд▓ рдкрд╛рде рдиреЗрдЯрд╡рд░реНрдХреНрд╕](https:/ /arxiv.org/abs/2201.07436) рдбреЛрдпреЛрди рдХрд┐рдо, рд╡реВрдВрдЧрд╣реНрдпреБрди рдЧрд╛, рдкреНрдпреБрдВрдЧрд╡рд╛рди рдЖрд╣, рдбреЛрдВрдЧрдЧреНрдпреВ рдЬреВ, рд╕реЗрд╣рд╡рд╛рди рдЪреБрди, рдЬреБрдирдореЛ рдХрд┐рдо рджреНрд╡рд╛рд░рд╛ред
1. **[GPT](https://huggingface.co/docs/transformers/model_doc/openai-gpt)** (OpenAI рд╕реЗ) рд╕рд╛рде рдореЗрдВ рджрд┐рдпрд╛ рдЧрдпрд╛ рдкреЗрдкрд░ [рдЬреЗрдирд░реЗрдЯрд┐рд╡ рдкреНрд░реА-рдЯреНрд░реЗрдирд┐рдВрдЧ рджреНрд╡рд╛рд░рд╛ рднрд╛рд╖рд╛ рдХреА рд╕рдордЭ рдореЗрдВ рд╕реБрдзрд╛рд░](https://blog .openai.com/language-unsupervised/) рдПрд▓реЗрдХ рд░реИрдбрдлреЛрд░реНрдб, рдХрд╛рд░реНрддрд┐рдХ рдирд░рд╕рд┐рдореНрд╣рди, рдЯрд┐рдо рд╕рд╛рд▓рд┐рдордиреНрд╕ рдФрд░ рдЗрд▓реНрдпрд╛ рд╕реБрддреНрд╕реНрдХреЗрд╡рд░ рджреНрд╡рд╛рд░рд╛ред
1. **[GPT Neo](https://huggingface.co/docs/transformers/model_doc/gpt_neo)** (EleutherAI рд╕реЗ) рд░рд┐рдкреЙрдЬрд┐рдЯрд░реА рдХреЗ рд╕рд╛рде [EleutherAI/gpt-neo](https://github.com/ EleutherAI /gpt-neo) рд░рд┐рд▓реАрдЬред рд╕рд┐рдб рдмреНрд▓реИрдХ, рд╕реНрдЯреЗрд▓рд╛ рдмрд┐рдбрд░рдореИрди, рд▓рд┐рдпреЛ рдЧрд╛рдУ, рдлрд┐рд▓ рд╡рд╛рдВрдЧ рдФрд░ рдХреЙрдирд░ рд▓реЗрд╣реА рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[GPT NeoX](https://huggingface.co/docs/transformers/model_doc/gpt_neox)** (EleutherAI рд╕реЗ) рдкреЗрдкрд░ рдХреЗ рд╕рд╛рде рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЧрдпрд╛ [GPT-NeoX-20B: рдПрдХ рдУрдкрди-рд╕реЛрд░реНрд╕ рдСрдЯреЛрд░реЗрдЧреНрд░реЗрд╕рд┐рд╡ рд▓реИрдВрдЧреНрд╡реЗрдЬ рдореЙрдбрд▓] (https://arxiv.org/abs/2204.06745) рд╕рд┐рдб рдмреНрд▓реИрдХ, рд╕реНрдЯреЗрд▓рд╛ рдмрд┐рдбрд░рдореИрди, рдПрд░рд┐рдХ рд╣реИрд▓рд╛рд╣рди, рдХреНрд╡реЗрдВрдЯрд┐рди рдПрдВрдереЛрдиреА, рд▓рд┐рдпреЛ рдЧрд╛рдУ, рд▓реЙрд░реЗрдВрд╕ рдЧреЛрд▓реНрдбрд┐рдВрдЧ, рд╣реЛрд░реЗрд╕ рд╣реЗ, рдХреЙрдирд░ рд▓реЗрд╣реА, рдХрд╛рдЗрд▓ рдореИрдХрдбреЛрдиреЗрд▓, рдЬреЗрд╕рди рдлрд╛рдВрдЧ, рдорд╛рдЗрдХрд▓ рдкрд╛рдЗрд▓рд░, рдпреВрдПрд╕рд╡реАрдПрд╕рдПрди рд╕рд╛рдИ рдкреНрд░рд╢рд╛рдВрдд рджреНрд╡рд╛рд░рд╛ , рд╢рд┐рд╡рд╛рдВрд╢реБ рдкреБрд░реЛрд╣рд┐рдд, рд▓рд╛рд░рд┐рдпрд╛ рд░реЗрдиреЙрд▓реНрдбреНрд╕, рдЬреЛрдирд╛рдерди рдЯреЛ, рдмреЗрди рд╡рд╛рдВрдЧ, рд╕реИрдореБрдЕрд▓ рд╡реЗрдирдмреИрдХ
1. **[GPT NeoX Japanese](https://huggingface.co/docs/transformers/model_doc/gpt_neox_japanese)** (рдЕрдмреЗрдЬрд╛ рдХреЗ рдЬрд░рд┐рдП) рд╢рд┐рдиреНрдпрд╛ рдУрдЯрд╛рдиреА, рддрд╛рдХрд╛рдпреЛрд╢реА рдордХрд╛рдмреЗ, рдЕрдиреБрдЬ рдЕрд░реЛрдбрд╝рд╛, рдХреНрдпреЛ рд╣рдЯреЛрд░реА рджреНрд╡рд╛рд░рд╛ред
1. **[GPT-2](https://huggingface.co/docs/transformers/model_doc/gpt2)** (рдУрдкрдирдПрдЖрдИ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [рд▓реИрдВрдЧреНрд╡реЗрдЬ рдореЙрдбрд▓реНрд╕ рдЕрдирд╕реБрдкрд░рд╡рд╛рдЗрдЬреНрдб рдорд▓реНрдЯреАрдЯрд╛рд╕реНрдХ рд▓рд░реНрдирд░реНрд╕ рд╣реИрдВ](https://blog.openai.com/better-language-models/) рдПрд▓реЗрдХ рд░реИрдбрдлреЛрд░реНрдб*, рдЬреЗрдлрд░реА рд╡реВ*, рд░реЗрд╡рди рдЪрд╛рдЗрд▓реНрдб, рдбреЗрд╡рд┐рдб рд▓реБрдЖрди, рдбрд╛рд░рд┐рдпреЛ рдПрдореЛрдбреА* рджреНрд╡рд╛рд░рд╛ * рдФрд░ рдЗрд▓реНрдпрд╛ рд╕реБрддреНрд╕рдХреЗрд╡рд░** рдиреЗ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ред
1. **[GPT-J](https://huggingface.co/docs/transformers/model_doc/gptj)** (EleutherAI рд╕реЗ) рд╕рд╛рде рд╡рд╛рд▓рд╛ рдкреЗрдкрд░ [kingoflolz/mesh-transformer-jax](https://github. com/kingoflolz/mesh-transformer-jax/) рдмреЗрди рд╡рд╛рдВрдЧ рдФрд░ рдЕрд░рди рдХреЛрдорд╛рддреНрд╕реБрдЬрд╛рдХреА рджреНрд╡рд╛рд░рд╛ред
1. **[GPT-Sw3](https://huggingface.co/docs/transformers/model_doc/gpt-sw3)** (from AI-Sweden) released with the paper [Lessons Learned from GPT-SW3: Building the First Large-Scale Generative Language Model for Swedish](http://www.lrec-conf.org/proceedings/lrec2022/pdf/2022.lrec-1.376.pdf) by Ariel Ekgren, Amaru Cuba Gyllensten, Evangelia Gogoulou, Alice Heiman, Severine Verlinden, Joey ├Цhman, Fredrik Carlsson, Magnus Sahlgren.
2023-04-19 22:03:57 +08:00
1. **[GPTBigCode](https://huggingface.co/docs/transformers/model_doc/gpt_bigcode)** (BigCode рд╕реЗ) Loubna Ben Allal, Raymond Li, Denis Kocetkov, Chenghao Mou, Christopher Akiki, Carlos Munoz Ferrandis, Niklas Muennighoff, Mayank Mishra, Alex Gu, Manan Dey, Logesh Kumar Umapathi, Carolyn Jane Anderson, Yangtian Zi, Joel Lamy Poirier, Hailey Schoelkopf, Sergey Troshin, Dmitry Abulkhanov, Manuel Romero, Michael Lappert, Francesco De Toni, Bernardo Garc├нa del R├нo, Qian Liu, Shamik Bose, Urvashi Bhattacharyya, Terry Yue Zhuo, Ian Yu, Paulo Villegas, Marco Zocca, Sourab Mangrulkar, David Lansky, Huu Nguyen, Danish Contractor, Luis Villa, Jia Li, Dzmitry Bahdanau, Yacine Jernite, Sean Hughes, Daniel Fried, Arjun Guha, Harm de Vries, Leandro von Werra. рджреНрд╡рд╛рд░рд╛рдЕрдиреБрд╕рдВрдзрд╛рди рдкрддреНрд░ [SantaCoder: don't reach for the stars!](https://arxiv.org/abs/2301.03988) рдХреЗ рд╕рд╛рде рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЧрдпрд╛
2023-03-15 01:49:10 +08:00
1. **[GPTSAN-japanese](https://huggingface.co/docs/transformers/model_doc/gptsan-japanese)** released in the repository [tanreinama/GPTSAN](https://github.com/tanreinama/GPTSAN/blob/main/report/model.md) by Toshiyuki Sakamoto(tanreinama).
1. **[Graphormer](https://huggingface.co/docs/transformers/model_doc/graphormer)** (from Microsoft) released with the paper [Do Transformers Really Perform Bad for Graph Representation?](https://arxiv.org/abs/2106.05234) by Chengxuan Ying, Tianle Cai, Shengjie Luo, Shuxin Zheng, Guolin Ke, Di He, Yanming Shen, Tie-Yan Liu.
1. **[GroupViT](https://huggingface.co/docs/transformers/model_doc/groupvit)** (UCSD, NVIDIA рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдХрд╛рдЧрдЬ [GroupViT: рдЯреЗрдХреНрд╕реНрдЯ рд╕реБрдкрд░рд╡рд┐рдЬрди рд╕реЗ рд╕рд┐рдореЗрдВрдЯрд┐рдХ рд╕реЗрдЧрдореЗрдВрдЯреЗрд╢рди рдЗрдорд░реНрдЬреЗрд╕](https://arxiv .org/abs/2202.11094) рдЬрд┐рдпрд╛рд░реБрдИ рдЬреВ, рд╢рд╛рд▓рд┐рдиреА рдбреА рдореЗрд▓реЛ, рд╕рд┐рдлрд╝реА рд▓рд┐рдпреВ, рд╡реЛрдирдорд┐рди рдмрд╛рдпрди, рдереЙрдорд╕ рдмреНрд░реЗрдЙрдПрд▓, рдЬрд╛рди рдХреМрдЯреНрдЬрд╝, рдЬрд╝рд┐рдпрд╛рдУрд▓реЛрдВрдЧ рд╡рд╛рдВрдЧ рджреНрд╡рд╛рд░рд╛ред
1. **[Hubert](https://huggingface.co/docs/transformers/model_doc/hubert)** (рдлреЗрд╕рдмреБрдХ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [рд╣реНрдпреВрдмрд░реНрдЯ: рд╕реЗрд▓реНрдл рд╕реБрдкрд░рд╡рд╛рдЗрдЬреНрдб рд╕реНрдкреАрдЪ рд░рд┐рдкреНрд░реЗрдЬреЗрдВрдЯреЗрд╢рди рд▓рд░реНрдирд┐рдВрдЧ рдмрд╛рдп рдорд╛рд╕реНрдХреНрдб рдкреНрд░реЗрдбрд┐рдХреНрд╢рди рдСрдл рд╣рд┐рдбрди рдпреВрдирд┐рдЯреНрд╕](https ://arxiv.org/abs/2106.07447) рд╡реЗрдИ-рдирд┐рдВрдЧ рд╕реВ, рдмреЗрдВрдЬрд╛рдорд┐рди рдмреЛрд▓реНрдЯреЗ, рдпрд╛рдУ-рд╣рдВрдЧ рд╣реНрдпреВрдмрд░реНрдЯ рддреНрд╕рд╛рдИ, рдХреБрд╢рд╛рд▓ рд▓рдЦреЛрдЯрд┐рдпрд╛, рд░реБрд╕реНрд▓рд╛рди рд╕рд╛рд▓рд╛рдЦреБрддрджреАрдиреЛрд╡, рдЕрдмреНрджреЗрд▓рд░рд╣рдорд╛рди рдореЛрд╣рдореНрдордж рджреНрд╡рд╛рд░рд╛ред
1. **[I-BERT](https://huggingface.co/docs/transformers/model_doc/ibert)** (рдмрд░реНрдХрд▓реЗ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдХрд╛рдЧрдЬ [I-BERT: Integer-only BERT Quantization](https:// arxiv.org/abs/2101.01321) рд╕реЗрд╣реВрди рдХрд┐рдо, рдЕрдореАрд░ рдШреЛрд▓рдореА, рдЬрд╝реЗрд╡реЗрдИ рдпрд╛рдУ, рдорд╛рдЗрдХрд▓ рдбрдмреНрд▓реНрдпреВ рдорд╣реЛрдиреА, рдХрд░реНрдЯ рдХреЗрдЯрдЬрд╝рд░ рджреНрд╡рд╛рд░рд╛ред
1. **[ImageGPT](https://huggingface.co/docs/transformers/model_doc/imagegpt)** (from OpenAI) released with the paper [Generative Pretraining from Pixels](https://openai.com/blog/image-gpt/) by Mark Chen, Alec Radford, Rewon Child, Jeffrey Wu, Heewoo Jun, David Luan, Ilya Sutskever.
2023-03-15 01:49:10 +08:00
1. **[Informer](https://huggingface.co/docs/transformers/model_doc/informer)** (from Beihang University, UC Berkeley, Rutgers University, SEDD Company) released with the paper [Informer: Beyond Efficient Transformer for Long Sequence Time-Series Forecasting](https://arxiv.org/abs/2012.07436) by Haoyi Zhou, Shanghang Zhang, Jieqi Peng, Shuai Zhang, Jianxin Li, Hui Xiong, and Wancai Zhang.
1. **[InstructBLIP](https://huggingface.co/docs/transformers/main/model_doc/instructblip)** (Salesforce рд╕реЗ) Wenliang Dai, Junnan Li, Dongxu Li, Anthony Meng Huat Tiong, Junqi Zhao, Weisheng Wang, Boyang Li, Pascale Fung, Steven Hoi. рджреНрд╡рд╛рд░рд╛рдЕрдиреБрд╕рдВрдзрд╛рди рдкрддреНрд░ [InstructBLIP: Towards General-purpose Vision-Language Models with Instruction Tuning](https://arxiv.org/abs/2305.06500) рдХреЗ рд╕рд╛рде рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЧрдпрд╛
1. **[Jukebox](https://huggingface.co/docs/transformers/model_doc/jukebox)** (from OpenAI) released with the paper [Jukebox: A Generative Model for Music](https://arxiv.org/pdf/2005.00341.pdf) by Prafulla Dhariwal, Heewoo Jun, Christine Payne, Jong Wook Kim, Alec Radford, Ilya Sutskever.
1. **[LayoutLM](https://huggingface.co/docs/transformers/model_doc/layoutlm)** (from Microsoft Research Asia) released with the paper [LayoutLM: Pre-training of Text and Layout for Document Image Understanding](https://arxiv.org/abs/1912.13318) by Yiheng Xu, Minghao Li, Lei Cui, Shaohan Huang, Furu Wei, Ming Zhou.
1. **[LayoutLMv2](https://huggingface.co/docs/transformers/model_doc/layoutlmv2)** (from Microsoft Research Asia) released with the paper [LayoutLMv2: Multi-modal Pre-training for Visually-Rich Document Understanding](https://arxiv.org/abs/2012.14740) by Yang Xu, Yiheng Xu, Tengchao Lv, Lei Cui, Furu Wei, Guoxin Wang, Yijuan Lu, Dinei Florencio, Cha Zhang, Wanxiang Che, Min Zhang, Lidong Zhou.
1. **[LayoutLMv3](https://huggingface.co/docs/transformers/model_doc/layoutlmv3)** (рдорд╛рдЗрдХреНрд░реЛрд╕реЙрдлреНрдЯ рд░рд┐рд╕рд░реНрдЪ рдПрд╢рд┐рдпрд╛ рд╕реЗ) рд╕рд╛рде рджреЗрдиреЗ рд╡рд╛рд▓рд╛ рдкреЗрдкрд░ [рд▓реЗрдЖрдЙрдЯрдПрд▓рдПрдорд╡реА3: рдпреВрдирд┐рдлрд╛рдЗрдб рдЯреЗрдХреНрд╕реНрдЯ рдФрд░ рдЗрдореЗрдЬ рдорд╛рд╕реНрдХрд┐рдВрдЧ рдХреЗ рд╕рд╛рде рджрд╕реНрддрд╛рд╡реЗрдЬрд╝ рдПрдЖрдИ рдХреЗ рд▓рд┐рдП рдкреВрд░реНрд╡-рдкреНрд░рд╢рд┐рдХреНрд╖рдг](https://arxiv.org/abs/2204.08387) рдпреБрдкрди рд╣реБрдЖрдВрдЧ, рдЯреЗрдВрдЧрдЪрд╛рдУ рд▓рд╡, рд▓реЗрдИ рдХреБрдИ, рдпреБрдЯреЛрдВрдЧ рд▓реВ, рдлреБрд░реБ рд╡реЗрдИ рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[LayoutXLM](https://huggingface.co/docs/transformers/model_doc/layoutxlm)** (from Microsoft Research Asia) released with the paper [LayoutXLM: Multimodal Pre-training for Multilingual Visually-rich Document Understanding](https://arxiv.org/abs/2104.08836) by Yiheng Xu, Tengchao Lv, Lei Cui, Guoxin Wang, Yijuan Lu, Dinei Florencio, Cha Zhang, Furu Wei.
1. **[LED](https://huggingface.co/docs/transformers/model_doc/led)** (from AllenAI) released with the paper [Longformer: The Long-Document Transformer](https://arxiv.org/abs/2004.05150) by Iz Beltagy, Matthew E. Peters, Arman Cohan.
1. **[LeViT](https://huggingface.co/docs/transformers/model_doc/levit)** (рдореЗрдЯрд╛ AI рд╕реЗ) рд╕рд╛рде рд╡рд╛рд▓рд╛ рдкреЗрдкрд░ [LeViT: A Vision Transformer in ConvNet's Clothing for Faster Inference](https:/ /arxiv.org/abs/2104.01136) рдмреЗрди рдЧреНрд░рд╛рд╣рдо, рдЕрд▓рд╛рдПрд▓реНрдбрд┐рди рдПрд▓-рдиреМрдмреА, рд╣реНрдпреВрдЧреЛ рдЯреМрд╡рд░рди, рдкрд┐рдпрд░реЗ рд╕реНрдЯреЙрдХ, рдЖрд░реНрдордВрдб рдЬреМрд▓рд┐рди, рд╣рд░реНрд╡реЗ рдЬреЗрдЧреМ, рдореИрдерд┐рдЬ рдбреВрдЬрд╝ рджреНрд╡рд╛рд░рд╛ред
1. **[LiLT](https://huggingface.co/docs/transformers/model_doc/lilt)** (рджрдХреНрд╖рд┐рдг рдЪреАрди рдкреНрд░реМрджреНрдпреЛрдЧрд┐рдХреА рд╡рд┐рд╢реНрд╡рд╡рд┐рджреНрдпрд╛рд▓рдп рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдХрд╛рдЧрдЬ [LiLT: рдПрдХ рд╕рд░рд▓ рд▓реЗрдХрд┐рди рдкреНрд░рднрд╛рд╡реА рднрд╛рд╖рд╛-рд╕реНрд╡рддрдВрддреНрд░ рд▓реЗрдЖрдЙрдЯ рдЯреНрд░рд╛рдВрд╕рдлрд╛рд░реНрдорд░ рд╕рдВрд░рдЪрд┐рдд рджрд╕реНрддрд╛рд╡реЗрдЬрд╝ рд╕рдордЭ рдХреЗ рд▓рд┐рдП](https://arxiv.org/abs/2202.13669) рдЬрд┐рдпрд╛рдкреЗрдВрдЧ рд╡рд╛рдВрдЧ, рд▓рд┐рдпрд╛рдирд╡реЗрди рдЬрд┐рди, рдХрд╛рдИ рдбрд┐рдВрдЧ рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
2023-04-19 22:03:57 +08:00
1. **[LLaMA](https://huggingface.co/docs/transformers/model_doc/llama)** (The FAIR team of Meta AI рд╕реЗ) Hugo Touvron, Thibaut Lavril, Gautier Izacard, Xavier Martinet, Marie-Anne Lachaux, Timoth├йe Lacroix, Baptiste Rozi├иre, Naman Goyal, Eric Hambro, Faisal Azhar, Aurelien Rodriguez, Armand Joulin, Edouard Grave, Guillaume Lample. рджреНрд╡рд╛рд░рд╛рдЕрдиреБрд╕рдВрдзрд╛рди рдкрддреНрд░ [LLaMA: Open and Efficient Foundation Language Models](https://arxiv.org/abs/2302.13971) рдХреЗ рд╕рд╛рде рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЧрдпрд╛
1. **[Longformer](https://huggingface.co/docs/transformers/model_doc/longformer)** (from AllenAI) released with the paper [Longformer: The Long-Document Transformer](https://arxiv.org/abs/2004.05150) by Iz Beltagy, Matthew E. Peters, Arman Cohan.
1. **[LongT5](https://huggingface.co/docs/transformers/model_doc/longt5)** (рдореИрдВрдбреА рдЧреБрдУ, рдЬреЛрд╢реБрдЖ рдЖрдЗрдВрд╕реНрд▓реА, рдбреЗрд╡рд┐рдб рдпреВрдерд╕, рд╕реИрдВрдЯрд┐рдпрд╛рдЧреЛ рдУрдВрдЯрд╛рдирди, рдЬрд┐рдпрд╛рдирдореЛ рдирд┐, рдпреВрдВ-рд╣реБрдЖрди рд╕реБрдВрдЧ, рдпрд┐рдирдлреЗрдИ рдпрд╛рдВрдЧ рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[LUKE](https://huggingface.co/docs/transformers/model_doc/luke)** (рд╕реНрдЯреВрдбрд┐рдпреЛ рдФрд╕рд┐рдпрд╛ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [LUKE: рдбреАрдк рдХреЙрдиреНрдЯреЗрдХреНрд╕реНрдЯреБрдЕрд▓рд╛рдЗрдЬреНрдб рдПрдВрдЯрд┐рдЯреА рд░рд┐рдкреНрд░реЗрдЬреЗрдВрдЯреЗрд╢рди рд╡рд┐рдж рдПрдВрдЯрд┐рдЯреА-рдЕрд╡реЗрдпрд░ рд╕реЗрд▓реНрдл-рдЕрдЯреЗрдВрд╢рди](https ://arxiv.org/abs/2010.01057) Ikuya Yamada, Akari Asai, Hiroyuki Shindo, Hideaki Takeda, Yuji Matsumoto рджреНрд╡рд╛рд░рд╛ред
1. **[LXMERT](https://huggingface.co/docs/transformers/model_doc/lxmert)** (UNC рдЪреИрдкрд▓ рд╣рд┐рд▓ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [LXMERT: рдУрдкрди-рдбреЛрдореЗрди рдХреНрд╡реЗрд╢реНрдЪрди рдХреЗ рд▓рд┐рдП рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░ рд╕реЗ рдХреНрд░реЙрд╕-рдореЛрдбрд▓рд┐рдЯреА рдПрдирдХреЛрдбрд░ рд░рд┐рдкреНрд░реЗрдЬреЗрдВрдЯреЗрд╢рди рд╕реАрдЦрдирд╛ Answering](https://arxiv.org/abs/1908.07490) рд╣рд╛рдУ рдЯреИрди рдФрд░ рдореЛрд╣рд┐рдд рдмрдВрд╕рд▓ рджреНрд╡рд╛рд░рд╛ред
1. **[M-CTC-T](https://huggingface.co/docs/transformers/model_doc/mctct)** (from Facebook) released with the paper [Pseudo-Labeling For Massively Multilingual Speech Recognition](https://arxiv.org/abs/2111.00161) by Loren Lugosch, Tatiana Likhomanenko, Gabriel Synnaeve, and Ronan Collobert.
1. **[M2M100](https://huggingface.co/docs/transformers/model_doc/m2m_100)** (рдлреЗрд╕рдмреБрдХ рд╕реЗ) рд╕рд╛рде рджреЗрдиреЗ рд╡рд╛рд▓рд╛ рдкреЗрдкрд░ [рдмрд┐рдпреЙрдиреНрдб рдЗрдВрдЧреНрд▓рд┐рд╢-рд╕реЗрдВрдЯреНрд░рд┐рдХ рдорд▓реНрдЯреАрд▓рд┐рдВрдЧреБрдЕрд▓ рдорд╢реАрди рдЯреНрд░рд╛рдВрд╕рд▓реЗрд╢рди](https://arxiv.org/ рдПрдмреНрд╕/2010.11125) рдПрдВрдЬреЗрд▓рд╛ рдлреИрди, рд╢реНрд░реБрддрд┐ рднреЛрд╕рд▓реЗ, рд╣реЛрд▓реНрдЧрд░ рд╢реНрд╡реЗрдиреНрдХ, рдЭреА рдорд╛, рдЕрд╣рдордж рдЕрд▓-рдХрд┐рд╢реНрдХреА, рд╕рд┐рджреНрдзрд╛рд░реНрде рдЧреЛрдпрд▓, рдордирджреАрдк рдмреИрдиреЗрд╕, рдУрдиреВрд░ рд╕реЗрд▓реЗрдмреА, рдЧреБрдЗрд▓реНрд▓рд╛рдо рд╡реЗрдиреНрдЬреЗрдХ, рд╡рд┐рд╢реНрд░рд╡ рдЪреМрдзрд░реА, рдирдорди рдЧреЛрдпрд▓, рдЯреЙрдо рдмрд░реНрдЪ, рд╡рд┐рдЯрд╛рд▓реА рд▓рд┐рдкрдЪрд┐рдВрд╕реНрдХреА, рд╕рд░реНрдЧреЗрдИ рдПрдбреБрдиреЛрд╡, рдПрдбреМрд░реНрдб рджреНрд╡рд╛рд░рд╛ рдЧреНрд░реЗрд╡, рдорд╛рдЗрдХрд▓ рдФрд▓реА, рдЖрд░реНрдордВрдб рдЬреМрд▓рд┐рди рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[MarianMT](https://huggingface.co/docs/transformers/model_doc/marian)** J├╢rg рджреНрд╡рд╛рд░рд╛ [OPUS](http://opus.nlpl.eu/) рдбреЗрдЯрд╛ рд╕реЗ рдкреНрд░рд╢рд┐рдХреНрд╖рд┐рдд рдорд╢реАрдиреА рдЕрдиреБрд╡рд╛рдж рдореЙрдбрд▓ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ рдЯрд╛рдЗрдбреЗрдореИрди рджреНрд╡рд╛рд░рд╛ред [рдореИрд░рд┐рдпрди рдлреНрд░реЗрдорд╡рд░реНрдХ](https://marian-nmt.github.io/) рдорд╛рдЗрдХреНрд░реЛрд╕реЙрдлреНрдЯ рдЯреНрд░рд╛рдВрд╕рд▓реЗрдЯрд░ рдЯреАрдо рджреНрд╡рд╛рд░рд╛ рд╡рд┐рдХрд╕рд┐рддред
1. **[MarkupLM](https://huggingface.co/docs/transformers/model_doc/markuplm)** (рдорд╛рдЗрдХреНрд░реЛрд╕реЙрдлреНрдЯ рд░рд┐рд╕рд░реНрдЪ рдПрд╢рд┐рдпрд╛ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [рдорд╛рд░реНрдХрдЕрдкрдПрд▓рдПрдо: рд╡рд┐рдЬреБрдЕрд▓реА-рд░рд┐рдЪ рдбреЙрдХреНрдпреВрдореЗрдВрдЯ рдЕрдВрдбрд░рд╕реНрдЯреИрдВрдбрд┐рдВрдЧ рдХреЗ рд▓рд┐рдП рдЯреЗрдХреНрд╕реНрдЯ рдФрд░ рдорд╛рд░реНрдХрдЕрдк рд▓реИрдВрдЧреНрд╡реЗрдЬ рдХрд╛ рдкреНрд░реА-рдЯреНрд░реЗрдирд┐рдВрдЧ] (https://arxiv.org/abs/2110.08518) рдЬреБрдирд▓реЙрдиреНрдЧ рд▓реА, рдпрд┐рд╣реЗрдВрдЧ рдЬреВ, рд▓реЗрдИ рдХреБрдИ, рдлреБрд░реБ рджреНрд╡рд╛рд░рд╛ рд╡реА рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[Mask2Former](https://huggingface.co/docs/transformers/model_doc/mask2former)** (FAIR and UIUC рд╕реЗ) Bowen Cheng, Ishan Misra, Alexander G. Schwing, Alexander Kirillov, Rohit Girdhar. рджреНрд╡рд╛рд░рд╛рдЕрдиреБрд╕рдВрдзрд╛рди рдкрддреНрд░ [Masked-attention Mask Transformer for Universal Image Segmentation](https://arxiv.org/abs/2112.01527) рдХреЗ рд╕рд╛рде рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЧрдпрд╛
1. **[MaskFormer](https://huggingface.co/docs/transformers/model_doc/maskformer)** (рдореЗрдЯрд╛ рдФрд░ UIUC рд╕реЗ) рдкреЗрдкрд░ рдХреЗ рд╕рд╛рде рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЧрдпрд╛ [рдкреНрд░рддрд┐-рдкрд┐рдХреНрд╕реЗрд▓ рд╡рд░реНрдЧреАрдХрд░рдг рд╡рд╣ рд╕рдм рдирд╣реАрдВ рд╣реИ рдЬрд┐рд╕рдХреА рдЖрдкрдХреЛ рд╕рд┐рдореЗрдВрдЯрд┐рдХ рд╕реЗрдЧрдореЗрдВрдЯреЗрд╢рди рдХреА рдЖрд╡рд╢реНрдпрдХрддрд╛ рд╣реИ] (https://arxiv.org/abs/2107.06278) рдмреЛрд╡реЗрди рдЪреЗрдВрдЧ, рдЕрд▓реЗрдХреНрдЬреЗрдВрдбрд░ рдЬреА. рд╢реНрд╡рд┐рдВрдЧ, рдЕрд▓реЗрдХреНрдЬреЗрдВрдбрд░ рдХрд┐рд░рд┐рд▓реЛрд╡ рджреНрд╡рд╛рд░рд╛ >>>>>> рд░рд┐рдмреЗрд╕ рдареАрдХ рдХрд░реЗрдВ
2023-04-19 22:03:57 +08:00
1. **[MatCha](https://huggingface.co/docs/transformers/model_doc/matcha)** (Google AI рд╕реЗ) Fangyu Liu, Francesco Piccinno, Syrine Krichene, Chenxi Pang, Kenton Lee, Mandar Joshi, Yasemin Altun, Nigel Collier, Julian Martin Eisenschlos. рджреНрд╡рд╛рд░рд╛рдЕрдиреБрд╕рдВрдзрд╛рди рдкрддреНрд░ [MatCha: Enhancing Visual Language Pretraining with Math Reasoning and Chart Derendering](https://arxiv.org/abs/2212.09662) рдХреЗ рд╕рд╛рде рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЧрдпрд╛
1. **[mBART](https://huggingface.co/docs/transformers/model_doc/mbart)** (рдлреЗрд╕рдмреБрдХ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [рдиреНрдпреВрд░рд▓ рдорд╢реАрди рдЯреНрд░рд╛рдВрд╕рд▓реЗрд╢рди рдХреЗ рд▓рд┐рдП рдорд▓реНрдЯреАрд▓рд┐рдВрдЧреБрдЕрд▓ рдбреАрдиреЛрдЗрдЬрд┐рдВрдЧ рдкреНрд░реА-рдЯреНрд░реЗрдирд┐рдВрдЧ](https://arxiv. org/abs/2001.08210) рдпрд┐рдирд╣рд╛рди рд▓рд┐рдпреВ, рдЬрд┐рдпрд╛рддрд╛рдУ рдЧреБ, рдирдорди рдЧреЛрдпрд▓, рдЬрд┐рдпрд╛рди рд▓реА, рд╕рд░реНрдЧреЗрдИ рдПрдбреБрдиреЛрд╡, рдорд╛рд░реНрдЬрди рдЧрд╝рдЬрд╝рд╡рд┐рдирд┐рдиреЗрдЬрд╛рдж, рдорд╛рдЗрдХ рд▓реБрдИрд╕, рд▓реНрдпреВрдХ рдЬрд╝реЗрдЯрд▓рдореЙрдпрд░ рджреНрд╡рд╛рд░рд╛ред
1. **[mBART-50](https://huggingface.co/docs/transformers/model_doc/mbart)** (рдлреЗрд╕рдмреБрдХ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [рдПрдХреНрд╕реНрдЯреЗрдВрд╕рд┐рдмрд▓ рдмрд╣реБрднрд╛рд╖реА рдкреНрд░реАрдЯреНрд░реЗрдирд┐рдВрдЧ рдФрд░ рдлрд╛рдЗрдирдЯреНрдпреВрдирд┐рдВрдЧ рдХреЗ рд╕рд╛рде рдмрд╣реБрднрд╛рд╖реА рдЕрдиреБрд╡рд╛рдж](https://arxiv рдпреБрдХрд┐рдВрдЧ рдЯреИрдВрдЧ, рдЪрд╛рдЙ рдЯреНрд░рд╛рди, рдЬрд┐рдпрд╛рди рд▓реА, рдкреЗрдВрдЧ-рдЬреЗрди рдЪреЗрди, рдирдорди рдЧреЛрдпрд▓, рд╡рд┐рд╢реНрд░рд╡ рдЪреМрдзрд░реА, рдЬрд┐рдпрд╛рддрд╛рдУ рдЧреБ, рдПрдВрдЬреЗрд▓рд╛ рдлреИрди рджреНрд╡рд╛рд░рд╛ .org/abs/2008.00401)ред
2023-04-19 22:03:57 +08:00
1. **[MEGA](https://huggingface.co/docs/transformers/model_doc/mega)** (Facebook рд╕реЗ) Xuezhe Ma, Chunting Zhou, Xiang Kong, Junxian He, Liangke Gui, Graham Neubig, Jonathan May, and Luke Zettlemoyer. рджреНрд╡рд╛рд░рд╛рдЕрдиреБрд╕рдВрдзрд╛рди рдкрддреНрд░ [Mega: Moving Average Equipped Gated Attention](https://arxiv.org/abs/2209.10655) рдХреЗ рд╕рд╛рде рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЧрдпрд╛
1. **[Megatron-BERT](https://huggingface.co/docs/transformers/model_doc/megatron-bert)** (NVIDIA рд╕реЗ) рдХрд╛рдЧрдЬ рдХреЗ рд╕рд╛рде [Megatron-LM: рдореЙрдбрд▓ рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрд░рдХреЗ рдмрд╣реБ-рдЕрд░рдм рдкреИрд░рд╛рдореАрдЯрд░ рднрд╛рд╖рд╛ рдореЙрдбрд▓ рдХрд╛ рдкреНрд░рд╢рд┐рдХреНрд╖рдг Parallelism](https://arxiv.org/abs/1909.08053) рдореЛрд╣рдореНрдордж рд╢реЛрдПрдмреА, рдореЛрд╕реНрдЯреЛрдлрд╛ рдкрдЯрд╡рд╛рд░реА, рд░рд╛рдЙрд▓ рдкреБрд░реА, рдкреИрдЯреНрд░рд┐рдХ рд▓реЗрдЧреНрд░реЗрд╕реНрд▓реЗ, рдЬреЗрд░реЗрдб рдХреИрд╕реНрдкрд░ рдФрд░ рдмреНрд░рд╛рдпрди рдХреИрдЯрд╛рдирдЬрд╝рд╛рд░реЛ рджреНрд╡рд╛рд░рд╛ред
1. **[Megatron-GPT2](https://huggingface.co/docs/transformers/model_doc/megatron_gpt2)** (NVIDIA рд╕реЗ) рд╕рд╛рде рд╡рд╛рд▓рд╛ рдкреЗрдкрд░ [Megatron-LM: рдЯреНрд░реЗрдирд┐рдВрдЧ рдорд▓реНрдЯреА-рдмрд┐рд▓рд┐рдпрди рдкреИрд░рд╛рдореАрдЯрд░ рд▓реИрдВрдЧреНрд╡реЗрдЬ рдореЙрдбрд▓реНрд╕ рдпреВрдЬрд┐рдВрдЧ рдореЙрдбрд▓ рдкреИрд░реЗрд▓рд▓рд┐рдЬрд╝реНрдо] (https://arxiv.org/abs/1909.08053) рдореЛрд╣рдореНрдордж рд╢реЛрдПрдмреА, рдореЛрд╕реНрдЯреЛрдлрд╛ рдкрдЯрд╡рд╛рд░реА, рд░рд╛рдЙрд▓ рдкреБрд░реА, рдкреИрдЯреНрд░рд┐рдХ рд▓реЗрдЧреНрд░реЗрд╕реНрд▓реЗ, рдЬреЗрд░реЗрдб рдХреИрд╕реНрдкрд░ рдФрд░ рдмреНрд░рд╛рдпрди рдХреИрдЯрд╛рдирдЬрд╝рд╛рд░реЛ рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
2023-03-15 01:49:10 +08:00
1. **[MGP-STR](https://huggingface.co/docs/transformers/model_doc/mgp-str)** (Alibaba Research рд╕реЗ) Peng Wang, Cheng Da, and Cong Yao. рджреНрд╡рд╛рд░рд╛рдЕрдиреБрд╕рдВрдзрд╛рди рдкрддреНрд░ [Multi-Granularity Prediction for Scene Text Recognition](https://arxiv.org/abs/2209.03592) рдХреЗ рд╕рд╛рде рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЧрдпрд╛
1. **[mLUKE](https://huggingface.co/docs/transformers/model_doc/mluke)** (рдлреНрд░реЙрдо Studio Ousia) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [mLUKE: рдж рдкрд╛рд╡рд░ рдСрдл рдПрдВрдЯрд┐рдЯреА рд░рд┐рдкреНрд░реЗрдЬреЗрдВрдЯреЗрд╢рди рдЗрди рдорд▓реНрдЯреАрд▓рд┐рдВрдЧреБрдЕрд▓ рдкреНрд░реАрдЯреНрд░реЗрдиреНрдб рд▓реИрдВрдЧреНрд╡реЗрдЬ рдореЙрдбрд▓реНрд╕](https://arxiv.org/abs/2110.08151) рд░рдпреЛрдХрди рд░реА, рдЗрдХреБрдпрд╛ рдпрд╛рдорд╛рдбрд╛, рдФрд░ рдпреЛрд╢рд┐рдорд╛рд╕рд╛ рддреНрд╕реБрд░реЛрдХрд╛ рджреНрд╡рд╛рд░рд╛ред
1. **[MMS](https://huggingface.co/docs/transformers/model_doc/mms)** (Facebook рд╕реЗ) Vineel Pratap, Andros Tjandra, Bowen Shi, Paden Tomasello, Arun Babu, Sayani Kundu, Ali Elkahky, Zhaoheng Ni, Apoorv Vyas, Maryam Fazel-Zarandi, Alexei Baevski, Yossi Adi, Xiaohui Zhang, Wei-Ning Hsu, Alexis Conneau, Michael Auli. рджреНрд╡рд╛рд░рд╛рдЕрдиреБрд╕рдВрдзрд╛рди рдкрддреНрд░ [Scaling Speech Technology to 1,000+ Languages](https://arxiv.org/abs/2305.13516) рдХреЗ рд╕рд╛рде рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЧрдпрд╛
1. **[MobileBERT](https://huggingface.co/docs/transformers/model_doc/mobilebert)** (рд╕реАрдПрдордпреВ/рдЧреВрдЧрд▓ рдмреНрд░реЗрди рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдХрд╛рдЧрдЬ [рдореЛрдмрд╛рдЗрд▓рдмрд░реНрдЯ: рд╕рдВрд╕рд╛рдзрди-рд╕реАрдорд┐рдд рдЙрдкрдХрд░рдгреЛрдВ рдХреЗ рд▓рд┐рдП рдПрдХ рдХреЙрдореНрдкреИрдХреНрдЯ рдЯрд╛рд╕реНрдХ-рдЕрдЬреНрдЮреЗрдп рдмреАрдИрдЖрд░рдЯреА] (https://arxiv.org/abs/2004.02984) Zhiqing Sun, Hongkun Yu, Xiaodan Song, Renjie Liu, Yiming Yang, рдФрд░ Denny Zhou рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[MobileNetV1](https://huggingface.co/docs/transformers/model_doc/mobilenet_v1)** (from Google Inc.) released with the paper [MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications](https://arxiv.org/abs/1704.04861) by Andrew G. Howard, Menglong Zhu, Bo Chen, Dmitry Kalenichenko, Weijun Wang, Tobias Weyand, Marco Andreetto, Hartwig Adam.
1. **[MobileNetV2](https://huggingface.co/docs/transformers/model_doc/mobilenet_v2)** (from Google Inc.) released with the paper [MobileNetV2: Inverted Residuals and Linear Bottlenecks](https://arxiv.org/abs/1801.04381) by Mark Sandler, Andrew Howard, Menglong Zhu, Andrey Zhmoginov, Liang-Chieh Chen.
1. **[MobileViT](https://huggingface.co/docs/transformers/model_doc/mobilevit)** (Apple рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдХрд╛рдЧрдЬ [MobileViT: рд▓рд╛рдЗрдЯ-рд╡реЗрдЯ, рдЬрдирд░рд▓-рдкрд░реНрдкрд╕, рдФрд░ рдореЛрдмрд╛рдЗрд▓-рдлреНрд░реЗрдВрдбрд▓реА рд╡рд┐рдЬрди рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░] (https://arxiv.org/abs/2110.02178) рд╕рдЪрд┐рди рдореЗрд╣рддрд╛ рдФрд░ рдореЛрд╣рдореНрдордж рд░рд╕реНрддрдЧрд░реА рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
2023-06-13 04:24:27 +08:00
1. **[MobileViTV2](https://huggingface.co/docs/transformers/model_doc/mobilevitv2)** (Apple рд╕реЗ) Sachin Mehta and Mohammad Rastegari. рджреНрд╡рд╛рд░рд╛рдЕрдиреБрд╕рдВрдзрд╛рди рдкрддреНрд░ [Separable Self-attention for Mobile Vision Transformers](https://arxiv.org/abs/2206.02680) рдХреЗ рд╕рд╛рде рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЧрдпрд╛
1. **[MPNet](https://huggingface.co/docs/transformers/model_doc/mpnet)** (from Microsoft Research) released with the paper [MPNet: Masked and Permuted Pre-training for Language Understanding](https://arxiv.org/abs/2004.09297) by Kaitao Song, Xu Tan, Tao Qin, Jianfeng Lu, Tie-Yan Liu.
1. **[MRA](https://huggingface.co/docs/transformers/main/model_doc/mra)** (the University of Wisconsin - Madison рд╕реЗ) Zhanpeng Zeng, Sourav Pal, Jeffery Kline, Glenn M Fung, Vikas Singh. рджреНрд╡рд╛рд░рд╛рдЕрдиреБрд╕рдВрдзрд╛рди рдкрддреНрд░ [Multi Resolution Analysis (MRA)](https://arxiv.org/abs/2207.10284) рдХреЗ рд╕рд╛рде рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЧрдпрд╛
1. **[MT5](https://huggingface.co/docs/transformers/model_doc/mt5)** (Google AI рд╕реЗ) рд╕рд╛рде рд╡рд╛рд▓рд╛ рдкреЗрдкрд░ [mT5: рдПрдХ рд╡реНрдпрд╛рдкрдХ рдмрд╣реБрднрд╛рд╖реА рдкреВрд░реНрд╡-рдкреНрд░рд╢рд┐рдХреНрд╖рд┐рдд рдЯреЗрдХреНрд╕реНрдЯ-рдЯреВ-рдЯреЗрдХреНрд╕реНрдЯ рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░]( https://arxiv.org/abs/2010.11934) рд▓рд┐рдВрдЯрд┐рдВрдЧ рдЬрд╝реВ, рдиреЛрдЖ рдХреЙрдиреНрд╕рдЯреЗрдВрдЯ, рдПрдбрдо рд░реЙрдмрд░реНрдЯреНрд╕, рдорд┐рд╣рд┐рд░ рдХрд╛рд▓реЗ, рд░рд╛рдореА рдЕрд▓-рд░рдлреВ, рдЖрджрд┐рддреНрдп рд╕рд┐рджреНрдзрд╛рдВрдд, рдЖрджрд┐рддреНрдп рдмрд░реБрдЖ, рдХреЙрд▓рд┐рди рд░реИрдлреЗрд▓ рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
Add Musicgen (#24109) * Add Audiocraft * add cross attention * style * add for lm * convert and verify * introduce t5 * split configs * load t5 + lm * clean conversion * copy from t5 * style * start pattern provider * make generation work * style * fix pos embs * propagate shape changes * propagate shape changes * style * delay pattern: pad tokens at end * audiocraft -> musicgen * fix inits * add mdx * style * fix pad token in processor * override generate and add todos * add init to test * undo pattern delay mask after gen * remove cfg logits processor * remove cfg logits processor * remove logits processor in favour of mask * clean pos embs * make fix copies * update readmes * clean pos emb * refactor encoder/decoder * make fix copies * update conversion * fix config imports * update config docs * make style * send pattern mask to device * pattern mask with delay * recover prompted audio tokens * fix docstrings * laydown test file * pattern edge case * remove t5 ref * add processing class * config refactor * better pattern comment * check if mask is not present * check if mask is not present * refactor to auto class * remove encoder configs * fix processor * processor import * start updating conversion * start updating tests * make style * convert t5, encodec, lm * convert as composite * also convert processor * run generate * classifier free gen * comments and clean up * make style * docs for logit proc * docstring for uncond gen * start lm tests * work tests * let the lm generate * refactor: reshape inside forward * undo greedy loop changes * from_enc_dec -> from_sub_model * fix input id shapes in docstrings * Apply suggestions from code review Co-authored-by: Patrick von Platen <patrick.v.platen@gmail.com> * undo generate changes * from sub model config * Update src/transformers/models/musicgen/modeling_musicgen.py Co-authored-by: Patrick von Platen <patrick.v.platen@gmail.com> * make generate work again * generate uncond -> get uncond inputs * remove prefix allowed tokens fn * better error message * logit proc checks * Apply suggestions from code review Co-authored-by: Joao Gante <joaofranciscocardosogante@gmail.com> * make decoder only tests work * composite fast tests * make style * uncond generation * feat extr padding * make audio prompt work * fix inputs docstrings * unconditional inputs: dict -> model output * clean up tests * more clean up tests * make style * t5 encoder -> auto text encoder * remove comments * deal with frames * fix auto text * slow tests * nice mdx * remove can generate * todo - hub id * convert m/l * make fix copies * only import generation with torch * ignore decoder from tests * don't wrap uncond inputs * make style * cleaner uncond inputs * add example to musicgen forward * fix docs * ignore MusicGen Model/ForConditionalGeneration in auto mapping * add doc section to toctree * add to doc tests * add processor tests * fix push to hub in conversion * tips for decoder only loading * Apply suggestions from code review Co-authored-by: Sylvain Gugger <35901082+sgugger@users.noreply.github.com> * fix conversion for s / m / l checkpoints * import stopping criteria from module * remove from pipeline tests * fix uncond docstring * decode audio method * fix docs * org: sanchit-gandhi -> facebook * fix max pos embeddings * remove auto doc (not compatible with shapes) * bump max pos emb * make style * fix doc * fix config doc * fix config doc * ignore musicgen config from docstring * make style * fix config * fix config for doctest * consistent from_sub_models * don't automap decoder * fix mdx save audio file * fix mdx save audio file * processor batch decode for audio * remove keys to ignore * update doc md * update generation config * allow changes for default generation config * update tests * make style * fix docstring for uncond * fix processor test * fix processor test --------- Co-authored-by: Patrick von Platen <patrick.v.platen@gmail.com> Co-authored-by: Joao Gante <joaofranciscocardosogante@gmail.com> Co-authored-by: Sylvain Gugger <35901082+sgugger@users.noreply.github.com>
2023-06-29 21:48:59 +08:00
1. **[MusicGen](https://huggingface.co/docs/transformers/main/model_doc/musicgen)** (from Meta) released with the paper [Simple and Controllable Music Generation](https://arxiv.org/abs/2306.05284) by Jade Copet, Felix Kreuk, Itai Gat, Tal Remez, David Kant, Gabriel Synnaeve, Yossi Adi and Alexandre D├йfossez.
1. **[MVP](https://huggingface.co/docs/transformers/model_doc/mvp)** (from RUC AI Box) released with the paper [MVP: Multi-task Supervised Pre-training for Natural Language Generation](https://arxiv.org/abs/2206.12131) by Tianyi Tang, Junyi Li, Wayne Xin Zhao and Ji-Rong Wen.
1. **[NAT](https://huggingface.co/docs/transformers/model_doc/nat)** (from SHI Labs) released with the paper [Neighborhood Attention Transformer](https://arxiv.org/abs/2204.07143) by Ali Hassani, Steven Walton, Jiachen Li, Shen Li, and Humphrey Shi.
1. **[Nezha](https://huggingface.co/docs/transformers/model_doc/nezha)** (рд╣реБрдЖрд╡реЗрдИ рдиреВрд╣ рдХреЗ рдЖрд░реНрдХ рд▓реИрдм рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдХрд╛рдЧрдЬрд╝ [NEZHA: рдЪреАрдиреА рднрд╛рд╖рд╛ рд╕рдордЭ рдХреЗ рд▓рд┐рдП рддрдВрддреНрд░рд┐рдХрд╛ рдкреНрд░рд╛рд╕рдВрдЧрд┐рдХ рдкреНрд░рддрд┐рдирд┐рдзрд┐рддреНрд╡](https :/ /arxiv.org/abs/1909.00204) рдЬреБрдиреНрдХрд┐рдЙ рд╡реЗрдИ, рдЬрд╝рд┐рдпрд╛рдУрдЬрд╝реЗ рд░реЗрди, рдЬрд╝рд┐рдЖрдУрдЧреБрдЖрдВрдЧ рд▓реА, рд╡реЗрдирдпреЛрдВрдЧ рд╣реБрдЖрдВрдЧ, рдпреА рд▓рд┐рдпрд╛рдУ, рдпрд╛рд╢реЗрдВрдЧ рд╡рд╛рдВрдЧ, рдЬрд┐рдпрд╛рд╢реВ рд▓рд┐рди, рд╢рд┐рди рдЬрд┐рдпрд╛рдВрдЧ, рдЬрд┐рдУ рдЪреЗрди рдФрд░ рдХреБрди рд▓рд┐рдпреВ рджреНрд╡рд╛рд░рд╛ред
1. **[NLLB](https://huggingface.co/docs/transformers/model_doc/nllb)** (рдлреНрд░реЙрдо рдореЗрдЯрд╛) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [рдиреЛ рд▓реИрдВрдЧреНрд╡реЗрдЬ рд▓реЗрдлреНрдЯ рдмрд┐рд╣рд╛рдЗрдВрдб: рд╕реНрдХреЗрд▓рд┐рдВрдЧ рд╣реНрдпреВрдорди-рд╕реЗрдВрдЯреЗрдб рдорд╢реАрди рдЯреНрд░рд╛рдВрд╕рд▓реЗрд╢рди] (https://arxiv.org/abs/2207.04672) рдПрдирдПрд▓рдПрд▓рдмреА рдЯреАрдо рджреНрд╡рд╛рд░рд╛ рдкреНрд░рдХрд╛рд╢рд┐рддред
2023-04-19 22:03:57 +08:00
1. **[NLLB-MOE](https://huggingface.co/docs/transformers/model_doc/nllb-moe)** (Meta рд╕реЗ) the NLLB team. рджреНрд╡рд╛рд░рд╛рдЕрдиреБрд╕рдВрдзрд╛рди рдкрддреНрд░ [No Language Left Behind: Scaling Human-Centered Machine Translation](https://arxiv.org/abs/2207.04672) рдХреЗ рд╕рд╛рде рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЧрдпрд╛
1. **[Nystr├╢mformer](https://huggingface.co/docs/transformers/model_doc/nystromformer)** (рд╡рд┐рд╕реНрдХреЙрдиреНрд╕рд┐рди рд╡рд┐рд╢реНрд╡рд╡рд┐рджреНрдпрд╛рд▓рдп - рдореИрдбрд┐рд╕рди рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдХрд╛рдЧрдЬ [Nystr├╢mformer: A Nystr├╢m- рдЖрдзрд╛рд░рд┐рдд рдПрд▓реНрдЧреЛрд░рд┐рдердо рдЖрддреНрдо-рдзреНрдпрд╛рди рдХрд╛ рдЕрдиреБрдорд╛рди рд▓рдЧрд╛рдиреЗ рдХреЗ рд▓рд┐рдП ](https://arxiv.org/abs/2102.03902) рдпреБрдирдпрд╛рдВрдЧ рдЬрд╝рд┐рдУрдВрдЧ, рдЭрд╛рдирдкреЗрдВрдЧ рдЬрд╝реЗрдВрдЧ, рд░реБрджреНрд░рд╕рд┐рд╕ рдЪрдХреНрд░рд╡рд░реНрддреА, рдорд┐рдВрдЧрдХреНрд╕рд┐рдВрдЧ рдЯреИрди, рдЧреНрд▓реЗрди рдлрдВрдЧ, рдпрд┐рди рд▓реА, рд╡рд┐рдХрд╛рд╕ рд╕рд┐рдВрд╣ рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[OneFormer](https://huggingface.co/docs/transformers/model_doc/oneformer)** (SHI Labs рд╕реЗ) рдкреЗрдкрд░ [OneFormer: One Transformer to Rule Universal Image Segmentation](https://arxiv.org/abs/2211.06220) рдЬрд┐рддреЗрд╢ рдЬреИрди, рдЬрд┐рдЖрдЪреЗрди рд▓реА, рдорд╛рдВрдЧрдЯрд┐рдХ рдЪрд┐рдЙ, рдЕрд▓реА рд╣рд╕рдиреА, рдирд┐рдХрд┐рддрд╛ рдУрд░рд▓реЛрд╡, рд╣рдореНрдлреНрд░реА рд╢рд┐ рдХреЗ рджреНрд╡рд╛рд░рд╛ рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЧрдпрд╛ рд╣реИред
Add swiftformer (#22686) * Commit the automatically generated code using add-new-model-like * Update description at swiftformer.mdx file * remove autogenerated code for MaskedImageModeling * update weight conversion scripts * Update modeling_swiftformer.py * update configuration_swiftformer.py * Update test_modeling_swiftformer.py * update modeling code - remove einops dependency * Update _toctree.yml * update modeling code - remove copied from comments * update docs * Revert "update docs" This reverts commit c2e05e2998fe2cd6eaee8b8cc31aca5222bac9fb. * update docs * remove unused reference SwiftFormerImageProcessor * update dependency_versions_table.py * update swiftformer.mdx * update swiftformer.mdx * change model output type - no attentions * update model org name * Fix typo * fix copies * Update tests/models/swiftformer/test_modeling_swiftformer.py Co-authored-by: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Update src/transformers/models/auto/image_processing_auto.py Co-authored-by: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Update src/transformers/models/auto/feature_extraction_auto.py Co-authored-by: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Update docs/source/en/model_doc/swiftformer.mdx Co-authored-by: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Update src/transformers/models/swiftformer/configuration_swiftformer.py Co-authored-by: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Apply suggestions from code review Co-authored-by: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Apply suggestions from code review Co-Authored-By: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Apply suggestions from code review Co-Authored-By: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Apply suggestions from code review Co-Authored-By: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Update modeling_swiftformer.py fix-copies * make style, make quality, fix-copies * Apply suggestions from code review Co-Authored-By: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Apply suggestions from code review Co-Authored-By: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * make style Co-Authored-By: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Add suggestions from code review Co-Authored-By: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Add suggestions from code review Co-Authored-By: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * make fix-copies * Update modeling_swiftformer.py * Update modeling_swiftformer.py * Add suggestions from code review Co-Authored-By: amyeroberts <22614925+amyeroberts@users.noreply.github.com> --------- Co-authored-by: amyeroberts <22614925+amyeroberts@users.noreply.github.com>
2023-05-12 18:52:31 +08:00
1. **[OpenLlama](https://huggingface.co/docs/transformers/model_doc/open-llama)** (from [s-JoL](https://huggingface.co/s-JoL)) released in [Open-Llama](https://github.com/s-JoL/Open-Llama).
1. **[OPT](https://huggingface.co/docs/transformers/master/model_doc/opt)** (from Meta AI) released with the paper [OPT: Open Pre-trained Transformer Language Models](https://arxiv.org/abs/2205.01068) by Susan Zhang, Stephen Roller, Naman Goyal, Mikel Artetxe, Moya Chen, Shuohui Chen et al.
1. **[OWL-ViT](https://huggingface.co/docs/transformers/model_doc/owlvit)** (Google AI рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдХрд╛рдЧрдЬ [рд╡рд┐рдЬрд╝рди рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░реНрд╕ рдХреЗ рд╕рд╛рде рд╕рд┐рдВрдкрд▓ рдУрдкрди-рд╡реЛрдХреИрдмреБрд▓рд░реА рдСрдмреНрдЬреЗрдХреНрдЯ рдбрд┐рдЯреЗрдХреНрд╢рди](https:/ /arxiv.org/abs/2205.06230) рдореИрдерд┐рдпрд╛рд╕ рдорд┐рдВрдбрд░рд░, рдПрд▓реЗрдХреНрд╕реА рдЧреНрд░рд┐рдЯреНрд╕реЗрдВрдХреЛ, рдСрд╕реНрдЯрд┐рди рд╕реНрдЯреЛрди, рдореИрдХреНрд╕рд┐рдо рдиреНрдпреВрдореИрди, рдбрд┐рд░реНрдХ рд╡реАрд╕реЗрдирдмреЛрд░реНрди, рдПрд▓реЗрдХреНрд╕реА рдбреЛрд╕реЛрд╡рд┐рддреНрд╕реНрдХреА, рдЕрд░рд╡рд┐рдВрдж рдорд╣реЗрдВрджреНрд░рди, рдЕрдиреБрд░рд╛рдЧ рдЕрд░реНрдирдм, рдореБрд╕реНрддрдлрд╛ рджреЗрд╣рдШрд╛рдиреА, рдЬрд╝реБрдУрд░рди рд╢реЗрди, рдЬрд┐рдУ рд╡рд╛рдВрдЧ, рдЬрд╝рд┐рдпрд╛рдУрд╣реБрдЖ рдЭрд╛рдИ, рдереЙрдорд╕ рдХрд┐рдлрд╝, рдФрд░ рдиреАрд▓ рд╣реЙрд▓реНрд╕рдмреА рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[Pegasus](https://huggingface.co/docs/transformers/model_doc/pegasus)** (from Google) released with the paper [PEGASUS: Pre-training with Extracted Gap-sentences for Abstractive Summarization](https://arxiv.org/abs/1912.08777) by Jingqing Zhang, Yao Zhao, Mohammad Saleh and Peter J. Liu.
1. **[PEGASUS-X](https://huggingface.co/docs/transformers/model_doc/pegasus_x)** (Google рдХреА рдУрд░ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рджрд┐рдпрд╛ рдЧрдпрд╛ рдкреЗрдкрд░ [рд▓рдВрдмреЗ рдЗрдирдкреБрдЯ рд╕рд╛рд░рд╛рдВрд╢ рдХреЗ рд▓рд┐рдП рдЯреНрд░рд╛рдВрд╕рдлрд╝реЙрд░реНрдорд░реЛрдВ рдХреЛ рдмреЗрд╣рддрд░ рддрд░реАрдХреЗ рд╕реЗ рдПрдХреНрд╕рдЯреЗрдВрдб рдХрд░рдирд╛](https://arxiv .org/abs/2208.04347) рдЬреЗрд╕рди рдлрд╛рдВрдЧ, рдпрд╛рдУ рдЭрд╛рдУ, рдкреАрдЯрд░ рдЬреЗ рд▓рд┐рдпреВ рджреНрд╡рд╛рд░рд╛ред
1. **[Perceiver IO](https://huggingface.co/docs/transformers/model_doc/perceiver)** (рджреАрдкрдорд╛рдЗрдВрдб рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [рдкрд░реНрд╕реАрд╡рд░ рдЖрдИрдУ: рд╕рдВрд░рдЪрд┐рдд рдЗрдирдкреБрдЯ рдФрд░ рдЖрдЙрдЯрдкреБрдЯ рдХреЗ рд▓рд┐рдП рдПрдХ рд╕рд╛рдорд╛рдиреНрдп рд╡рд╛рд╕реНрддреБрдХрд▓рд╛] (https://arxiv.org/abs/2107.14795) рдПрдВрдбреНрд░рдпреВ рдЬреЗрдЧрд▓, рд╕реЗрдмреЗрд╕реНрдЯрд┐рдпрди рдмреЛрд░рдЧреНрдпреВрдб, рдЬреАрди-рдмреИрдкреНрдЯрд┐рд╕реНрдЯ рдЕрд▓рд╛рдпрд░рд╛рдХ, рдХрд╛рд░реНрд▓ рдбреЛрд░реНрд╢, рдХреИрдЯрд▓рд┐рди рдЗрдУрдиреЗрд╕реНрдХреБ, рдбреЗрд╡рд┐рдб рджреНрд╡рд╛рд░рд╛ рдбрд┐рдВрдЧ, рд╕реНрдХрдВрдж рдХреЛрдкреНрдкреБрд▓рд╛, рдбреИрдирд┐рдпрд▓ рдЬрд╝реЛрд░рд╛рди, рдПрдВрдбреНрд░рдпреВ рдмреНрд░реЙрдХ, рдЗрд╡рд╛рди рд╢реЗрд▓рд╣реИрдорд░, рдУрд▓рд┐рд╡рд┐рдпрд░ рд╣реЗрдирд╛рдл, рдореИрдереНрдпреВ рдПрдоред рдмреЛрдЯреНрд╡рд┐рдирд┐рдХ, рдПрдВрдбреНрд░рдпреВ рдЬрд╝рд┐рд╕рд░рдореИрди, рдУрд░рд┐рдУрд▓ рд╡рд┐рдирд┐рдпрд▓реНрд╕, рдЬреЛрдЖрдУ рдХреИрд░реЗрд░рд╛ рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[PhoBERT](https://huggingface.co/docs/transformers/model_doc/phobert)** (VinAI Research рд╕реЗ) рдХрд╛рдЧрдЬ рдХреЗ рд╕рд╛рде [PhoBERT: рд╡рд┐рдпрддрдирд╛рдореА рдХреЗ рд▓рд┐рдП рдкреВрд░реНрд╡-рдкреНрд░рд╢рд┐рдХреНрд╖рд┐рдд рднрд╛рд╖рд╛ рдореЙрдбрд▓](https://www .aclweb.org/anthology/2020.findings-emnlp.92/) рдбреИрдЯ рдХреНрд╡реЛрдХ рдЧреБрдпреЗрди рдФрд░ рдЕрдиреНрд╣ рддреБрдЖрди рдЧреБрдпреЗрди рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
2023-04-19 22:03:57 +08:00
1. **[Pix2Struct](https://huggingface.co/docs/transformers/model_doc/pix2struct)** (Google рд╕реЗ) Kenton Lee, Mandar Joshi, Iulia Turc, Hexiang Hu, Fangyu Liu, Julian Eisenschlos, Urvashi Khandelwal, Peter Shaw, Ming-Wei Chang, Kristina Toutanova. рджреНрд╡рд╛рд░рд╛рдЕрдиреБрд╕рдВрдзрд╛рди рдкрддреНрд░ [Pix2Struct: Screenshot Parsing as Pretraining for Visual Language Understanding](https://arxiv.org/abs/2210.03347) рдХреЗ рд╕рд╛рде рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЧрдпрд╛
1. **[PLBart](https://huggingface.co/docs/transformers/model_doc/plbart)** (UCLA NLP рд╕реЗ) рд╕рд╛рде рд╡рд╛рд▓рд╛ рдкреЗрдкрд░ [рдкреНрд░реЛрдЧреНрд░рд╛рдо рдЕрдВрдбрд░рд╕реНрдЯреИрдВрдбрд┐рдВрдЧ рдПрдВрдб рдЬреЗрдирд░реЗрд╢рди рдХреЗ рд▓рд┐рдП рдпреВрдирд┐рдлрд╛рдЗрдб рдкреНрд░реА-рдЯреНрд░реЗрдирд┐рдВрдЧ](https://arxiv .org/abs/2103.06333) рд╡рд╕реА рдЙрджреНрджреАрди рдЕрд╣рдордж, рд╕реИрдХрдд рдЪрдХреНрд░рд╡рд░реНрддреА, рдмреИрд╢рд╛рдЦреА рд░реЗ, рдХрд╛рдИ-рд╡реЗрдИ рдЪрд╛рдВрдЧ рджреНрд╡рд╛рд░рд╛ред
1. **[PoolFormer](https://huggingface.co/docs/transformers/model_doc/poolformer)** (from Sea AI Labs) released with the paper [MetaFormer is Actually What You Need for Vision](https://arxiv.org/abs/2111.11418) by Yu, Weihao and Luo, Mi and Zhou, Pan and Si, Chenyang and Zhou, Yichen and Wang, Xinchao and Feng, Jiashi and Yan, Shuicheng.
1. **[ProphetNet](https://huggingface.co/docs/transformers/model_doc/prophetnet)** (рдорд╛рдЗрдХреНрд░реЛрд╕реЙрдлреНрдЯ рд░рд┐рд╕рд░реНрдЪ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [ProphetNet: рдкреНрд░реЗрдбрд┐рдХреНрдЯрд┐рдВрдЧ рдлреНрдпреВрдЪрд░ рдПрди-рдЧреНрд░рд╛рдо рдлреЙрд░ рд╕реАрдХреНрд╡реЗрдВрд╕-рдЯреВ-рд╕реАрдХреНрд╡реЗрдВрд╕ рдкреНрд░реА-рдЯреНрд░реЗрдирд┐рдВрдЧ ](https://arxiv.org/abs/2001.04063) рдпреВ рдпрд╛рди, рд╡реАрдЬрд╝реЗрди рдХреНрдпреВрдИ, рдпреЗрдпреБрди рдЧреЛрдВрдЧ, рджрдпрд╛рд╣реЗрдВрдЧ рд▓рд┐рдпреВ, рдирд╛рди рдбреБрдЖрди, рдЬрд┐рдЙрд╢реЗрдВрдЧ рдЪреЗрди, рд░реБрдУрдлрд╝реЗрдИ рдЭрд╛рдВрдЧ рдФрд░ рдорд┐рдВрдЧ рдЭреЛрдЙ рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[QDQBert](https://huggingface.co/docs/transformers/model_doc/qdqbert)** (NVIDIA рд╕реЗ) рд╕рд╛рде рд╡рд╛рд▓рд╛ рдкреЗрдкрд░ [рдбреАрдк рд▓рд░реНрдирд┐рдВрдЧ рдЗрдВрдлрд╝реЗрдХреНрд╢рди рдХреЗ рд▓рд┐рдП рдЗрдВрдЯреАрдЬрд░ рдХреНрд╡рд╛рдВрдЯрд┐рдЬрд╝реЗрд╢рди: рдкреНрд░рд┐рдВрд╕рд┐рдкрд▓реНрд╕ рдПрдВрдб рдПрдореНрдкрд┐рд░рд┐рдХрд▓ рдЗрд╡реИрд▓реНрдпреВрдПрд╢рди](https:// arxiv.org/abs/2004.09602) рд╣рд╛рдУ рд╡реВ, рдкреИрдЯреНрд░рд┐рдХ рдЬреБрдб, рдЬрд┐рдЖрдУрдЬреА рдЭрд╛рдВрдЧ, рдорд┐рдЦрд╛рдЗрд▓ рдЗрд╕реЗрд╡ рдФрд░ рдкреЙрд▓рд┐рдпрд╕ рдорд╛рдЗрдХреЗрд╡рд┐рд╕рд┐рдпрд╕ рджреНрд╡рд╛рд░рд╛ред
1. **[RAG](https://huggingface.co/docs/transformers/model_doc/rag)** (рдлреЗрд╕рдмреБрдХ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдХрд╛рдЧрдЬ [рд░рд┐рдЯреНрд░реАрд╡рд▓-рдСрдЧрдореЗрдВрдЯреЗрдб рдЬреЗрдирд░реЗрд╢рди рдлреЙрд░ рдиреЙрд▓реЗрдЬ-рдЗрдВрдЯреЗрдВрд╕рд┐рд╡ рдПрдирдПрд▓рдкреА рдЯрд╛рд╕реНрдХ](https://arxiv .org/abs/2005.11401) рдкреИрдЯреНрд░рд┐рдХ рд▓реБрдИрд╕, рдПрдерди рдкреЗрд░реЗрдЬрд╝, рдЕрд▓реЗрдХреНрдЬреЗрдВрдбреНрд░рд╛ рдкрд┐рдХреНрдЯрд╕, рдлреИрдмрд┐рдпреЛ рдкреЗрдЯреНрд░реЛрдиреА, рд╡реНрд▓рд╛рджрд┐рдореАрд░ рдХрд╛рд░рдкреБрдЦрд┐рди, рдирдорди рдЧреЛрдпрд▓, рд╣реЗрдирд░рд┐рдХ рдХреБрдЯрд▓рд░, рдорд╛рдЗрдХ рд▓реБрдИрд╕, рд╡реЗрди-рддрд╛рдЙ рдпрд┐рд╣, рдЯрд┐рдо рд░реЙрдХрдЯрд╛рд╢реЗрд▓, рд╕реЗрдмрд╕реНрдЯрд┐рдпрди рд░рд┐рдбреЗрд▓, рдбреМрд╡реЗ рдХреАрд▓рд╛ рджреНрд╡рд╛рд░рд╛ред
1. **[REALM](https://huggingface.co/docs/transformers/model_doc/realm.html)** (Google рдЕрдиреБрд╕рдВрдзрд╛рди рд╕реЗ) рдХреЗрд▓реНрд╡рд┐рди рдЧреБ, рдХреЗрдВрдЯрди рд▓реА, рдЬрд╝реЛрд░рд╛ рддреБрдВрдЧ, рдкрд╛рдиреБрдкреЛрдВрдЧ рдкрд╕реБрдкрдд рдФрд░ рдорд┐рдВрдЧ-рд╡реЗрдИ рдЪрд╛рдВрдЧ рджреНрд╡рд╛рд░рд╛ рд╕рд╛рде рдореЗрдВ рджрд┐рдпрд╛ рдЧрдпрд╛ рдкреЗрдкрд░ [REALM: рд░рд┐рдЯреНрд░реАрд╡рд▓-рдСрдЧрдореЗрдВрдЯреЗрдб рд▓реИрдВрдЧреНрд╡реЗрдЬ рдореЙрдбрд▓ рдкреНрд░реА-рдЯреНрд░реЗрдирд┐рдВрдЧ](https://arxiv.org/abs/2002.08909)ред
1. **[Reformer](https://huggingface.co/docs/transformers/model_doc/reformer)** (from Google Research) released with the paper [Reformer: The Efficient Transformer](https://arxiv.org/abs/2001.04451) by Nikita Kitaev, ┼Бukasz Kaiser, Anselm Levskaya.
1. **[RegNet](https://huggingface.co/docs/transformers/model_doc/regnet)** (META рд░рд┐рд╕рд░реНрдЪ рд╕реЗ) [рдбрд┐рдЬрд╝рд╛рдЗрдирд┐рдВрдЧ рдиреЗрдЯрд╡рд░реНрдХ рдбрд┐рдЬрд╝рд╛рдЗрди рд╕реНрдкреЗрд╕] (https://arxiv.org/) рдкреЗрдкрд░ рдХреЗ рд╕рд╛рде рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЧрдпрд╛ рдПрдмреНрд╕/2003.13678) рдЗрд▓рд┐рдЬрд╛ рд░рд╛рдбреЛрд╕рд╛рд╡реЛрд╡рд┐рдХ, рд░рд╛рдЬ рдкреНрд░рддреАрдХ рдХреЛрд╕рд╛рд░рд╛рдЬреВ, рд░реЙрд╕ рдЧрд┐рд░реНрд╢рд┐рдХ, рдХреИрдорд┐рдВрдЧ рд╣реА, рдкрд┐рдУрдЯрд░ рдбреЙрд▓рд░ рджреНрд╡рд╛рд░рд╛ред
1. **[RemBERT](https://huggingface.co/docs/transformers/model_doc/rembert)** (рдЧреВрдЧрд▓ рд░рд┐рд╕рд░реНрдЪ рд╕реЗ) рд╕рд╛рде рд╡рд╛рд▓рд╛ рдкреЗрдкрд░ [рдкреВрд░реНрд╡-рдкреНрд░рд╢рд┐рдХреНрд╖рд┐рдд рднрд╛рд╖рд╛ рдореЙрдбрд▓ рдореЗрдВ рдПрдореНрдмреЗрдбрд┐рдВрдЧ рдХрдкрд▓рд┐рдВрдЧ рдкрд░ рдкреБрдирд░реНрд╡рд┐рдЪрд╛рд░](https://arxiv .org/pdf/2010.12821.pdf) рд╣реНрдпреБрдВрдЧ рд╡реЛрди рдЪреБрдВрдЧ, рдерд┐рдмреЙрд▓реНрдЯ рдлрд╝реЗрд╡рд░реА, рд╣реЗрдирд░реА рддреНрд╕рд╛рдИ, рдПрдо. рдЬреЙрдирд╕рди, рд╕реЗрдмреЗрд╕реНрдЯрд┐рдпрди рд░реБрдбрд░ рджреНрд╡рд╛рд░рд╛ред
1. **[ResNet](https://huggingface.co/docs/transformers/model_doc/resnet)** (рдорд╛рдЗрдХреНрд░реЛрд╕реЙрдлреНрдЯ рд░рд┐рд╕рд░реНрдЪ рд╕реЗ) [рдбреАрдк рд░реЗрд╕рд┐рдбреБрдЕрд▓ рд▓рд░реНрдирд┐рдВрдЧ рдлреЙрд░ рдЗрдореЗрдЬ рд░рд┐рдХрдЧреНрдирд┐рд╢рди] (https://arxiv. org/abs/1512.03385) рдХреИрдорд┐рдВрдЧ рд╣реЗ, рдЬрд┐рдпрд╛рдВрдЧреНрдпреБ рдЭрд╛рдВрдЧ, рд╢рд╛рдУрдХрд┐рдВрдЧ рд░реЗрди, рдЬрд┐рдпрд╛рди рд╕рди рджреНрд╡рд╛рд░рд╛ред
1. **[RoBERTa](https://huggingface.co/docs/transformers/model_doc/roberta)** (рдлреЗрд╕рдмреБрдХ рд╕реЗ), рд╕рд╛рде рдореЗрдВ рдХрд╛рдЧрдЬ [рдордЬрдмреВрдд рд░реВрдк рд╕реЗ рдЕрдиреБрдХреВрд▓рд┐рдд BERT рдкреНрд░реАрдЯреНрд░реЗрдирд┐рдВрдЧ рджреГрд╖реНрдЯрд┐рдХреЛрдг](https://arxiv.org/abs /1907.11692) рдпрд┐рдирд╣рд╛рди рд▓рд┐рдпреВ, рдорд╛рдпрд▓ рдУрдЯ, рдирдорди рдЧреЛрдпрд▓, рдЬрд┐рдВрдЧрдлреЗрдИ рдбреВ, рдордВрджрд╛рд░ рдЬреЛрд╢реА, рдбреИрдирдХреА рдЪреЗрди, рдУрдорд░ рд▓реЗрд╡реА, рдорд╛рдЗрдХ рд▓реБрдИрд╕, рд▓реНрдпреВрдХ рдЬрд╝реЗрдЯрд▓рдореЙрдпрд░, рд╡реЗрд╕реЗрд▓рд┐рди рд╕реНрдЯреЛрдпрд╛рдиреЛрд╡ рджреНрд╡рд╛рд░рд╛ред
1. **[RoBERTa-PreLayerNorm](https://huggingface.co/docs/transformers/model_doc/roberta-prelayernorm)** (from Facebook) released with the paper [fairseq: A Fast, Extensible Toolkit for Sequence Modeling](https://arxiv.org/abs/1904.01038) by Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, Michael Auli.
1. **[RoCBert](https://huggingface.co/docs/transformers/model_doc/roc_bert)** (from WeChatAI) released with the paper [RoCBert: Robust Chinese Bert with Multimodal Contrastive Pretraining](https://aclanthology.org/2022.acl-long.65.pdf) by HuiSu, WeiweiShi, XiaoyuShen, XiaoZhou, TuoJi, JiaruiFang, JieZhou.
1. **[RoFormer](https://huggingface.co/docs/transformers/model_doc/roformer)** (рдЭреБрдИрдИ рдЯреЗрдХреНрдиреЛрд▓реЙрдЬреА рд╕реЗ), рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [рд░реЛрдлреЙрд░реНрдорд░: рд░реЛрдЯрд░реА рдкреЛрдЬрд┐рд╢рди рдПрдВрдмреЗрдбрд┐рдВрдЧ рдХреЗ рд╕рд╛рде рдПрдиреНрд╣рд╛рдВрд╕реНрдб рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░] (https://arxiv.org/pdf/2104.09864v1.pdf) рдЬрд┐рдпрд╛рдирд▓рд┐рди рд╕реБ рдФрд░ рдпреВ рд▓реВ рдФрд░ рд╢реЗрдВрдЧрдлреЗрдВрдЧ рдкреИрди рдФрд░ рдмреЛ рд╡реЗрди рдФрд░ рдпреБрдирдлреЗрдВрдЧ рд▓рд┐рдпреВ рджреНрд╡рд╛рд░рд╛ рдкреНрд░рдХрд╛рд╢рд┐рддред
Add swiftformer (#22686) * Commit the automatically generated code using add-new-model-like * Update description at swiftformer.mdx file * remove autogenerated code for MaskedImageModeling * update weight conversion scripts * Update modeling_swiftformer.py * update configuration_swiftformer.py * Update test_modeling_swiftformer.py * update modeling code - remove einops dependency * Update _toctree.yml * update modeling code - remove copied from comments * update docs * Revert "update docs" This reverts commit c2e05e2998fe2cd6eaee8b8cc31aca5222bac9fb. * update docs * remove unused reference SwiftFormerImageProcessor * update dependency_versions_table.py * update swiftformer.mdx * update swiftformer.mdx * change model output type - no attentions * update model org name * Fix typo * fix copies * Update tests/models/swiftformer/test_modeling_swiftformer.py Co-authored-by: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Update src/transformers/models/auto/image_processing_auto.py Co-authored-by: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Update src/transformers/models/auto/feature_extraction_auto.py Co-authored-by: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Update docs/source/en/model_doc/swiftformer.mdx Co-authored-by: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Update src/transformers/models/swiftformer/configuration_swiftformer.py Co-authored-by: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Apply suggestions from code review Co-authored-by: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Apply suggestions from code review Co-Authored-By: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Apply suggestions from code review Co-Authored-By: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Apply suggestions from code review Co-Authored-By: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Update modeling_swiftformer.py fix-copies * make style, make quality, fix-copies * Apply suggestions from code review Co-Authored-By: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Apply suggestions from code review Co-Authored-By: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * make style Co-Authored-By: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Add suggestions from code review Co-Authored-By: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Add suggestions from code review Co-Authored-By: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * make fix-copies * Update modeling_swiftformer.py * Update modeling_swiftformer.py * Add suggestions from code review Co-Authored-By: amyeroberts <22614925+amyeroberts@users.noreply.github.com> --------- Co-authored-by: amyeroberts <22614925+amyeroberts@users.noreply.github.com>
2023-05-12 18:52:31 +08:00
1. **[RWKV](https://huggingface.co/docs/transformers/model_doc/rwkv)** (Bo Peng рд╕реЗ) Bo Peng. рджреНрд╡рд╛рд░рд╛рдЕрдиреБрд╕рдВрдзрд╛рди рдкрддреНрд░ [this repo](https://github.com/BlinkDL/RWKV-LM) рдХреЗ рд╕рд╛рде рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЧрдпрд╛
1. **[SegFormer](https://huggingface.co/docs/transformers/model_doc/segformer)** (from NVIDIA) released with the paper [SegFormer: Simple and Efficient Design for Semantic Segmentation with Transformers](https://arxiv.org/abs/2105.15203) by Enze Xie, Wenhai Wang, Zhiding Yu, Anima Anandkumar, Jose M. Alvarez, Ping Luo.
Add swiftformer (#22686) * Commit the automatically generated code using add-new-model-like * Update description at swiftformer.mdx file * remove autogenerated code for MaskedImageModeling * update weight conversion scripts * Update modeling_swiftformer.py * update configuration_swiftformer.py * Update test_modeling_swiftformer.py * update modeling code - remove einops dependency * Update _toctree.yml * update modeling code - remove copied from comments * update docs * Revert "update docs" This reverts commit c2e05e2998fe2cd6eaee8b8cc31aca5222bac9fb. * update docs * remove unused reference SwiftFormerImageProcessor * update dependency_versions_table.py * update swiftformer.mdx * update swiftformer.mdx * change model output type - no attentions * update model org name * Fix typo * fix copies * Update tests/models/swiftformer/test_modeling_swiftformer.py Co-authored-by: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Update src/transformers/models/auto/image_processing_auto.py Co-authored-by: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Update src/transformers/models/auto/feature_extraction_auto.py Co-authored-by: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Update docs/source/en/model_doc/swiftformer.mdx Co-authored-by: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Update src/transformers/models/swiftformer/configuration_swiftformer.py Co-authored-by: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Apply suggestions from code review Co-authored-by: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Apply suggestions from code review Co-Authored-By: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Apply suggestions from code review Co-Authored-By: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Apply suggestions from code review Co-Authored-By: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Update modeling_swiftformer.py fix-copies * make style, make quality, fix-copies * Apply suggestions from code review Co-Authored-By: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Apply suggestions from code review Co-Authored-By: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * make style Co-Authored-By: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Add suggestions from code review Co-Authored-By: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Add suggestions from code review Co-Authored-By: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * make fix-copies * Update modeling_swiftformer.py * Update modeling_swiftformer.py * Add suggestions from code review Co-Authored-By: amyeroberts <22614925+amyeroberts@users.noreply.github.com> --------- Co-authored-by: amyeroberts <22614925+amyeroberts@users.noreply.github.com>
2023-05-12 18:52:31 +08:00
1. **[Segment Anything](https://huggingface.co/docs/transformers/model_doc/sam)** (Meta AI рд╕реЗ) Alexander Kirillov, Eric Mintun, Nikhila Ravi, Hanzi Mao, Chloe Rolland, Laura Gustafson, Tete Xiao, Spencer Whitehead, Alex Berg, Wan-Yen Lo, Piotr Dollar, Ross Girshick. рджреНрд╡рд╛рд░рд╛рдЕрдиреБрд╕рдВрдзрд╛рди рдкрддреНрд░ [Segment Anything](https://arxiv.org/pdf/2304.02643v1.pdf) рдХреЗ рд╕рд╛рде рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЧрдпрд╛
1. **[SEW](https://huggingface.co/docs/transformers/model_doc/sew)** (ASAPP рд╕реЗ) рд╕рд╛рде рджреЗрдиреЗ рд╡рд╛рд▓рд╛ рдкреЗрдкрд░ [рднрд╛рд╖рдг рдкрд╣рдЪрд╛рди рдХреЗ рд▓рд┐рдП рдЕрдирд╕реБрдкрд░рд╡рд╛рдЗрдЬреНрдб рдкреНрд░реА-рдЯреНрд░реЗрдирд┐рдВрдЧ рдореЗрдВ рдкрд░рдлреЙрд░реНрдореЗрдВрд╕-рдПрдлрд┐рд╢рд┐рдПрдВрд╕реА рдЯреНрд░реЗрдб-рдСрдлреНрд╕](https ://arxiv.org/abs/2109.06870) рдлреЗрд▓рд┐рдХреНрд╕ рд╡реВ, рдХреНрд╡рд╛рдВрдЧрдпреБрди рдХрд┐рдо, рдЬрд┐рдВрдЧ рдкреИрди, рдХреНрдпреВ рд╣рд╛рди, рдХрд┐рд▓рд┐рдпрди рдХреНрдпреВ. рд╡реЗрдирдмрд░реНрдЧрд░, рдпреЛрд╡ рдЖрд░реНрдЯрдЬрд╝реА рджреНрд╡рд╛рд░рд╛ред
1. **[SEW-D](https://huggingface.co/docs/transformers/model_doc/sew_d)** (ASAPP рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [рднрд╛рд╖рдг рдкрд╣рдЪрд╛рди рдХреЗ рд▓рд┐рдП рдЕрдирд╕реБрдкрд░рд╡рд╛рдЗрдЬреНрдб рдкреНрд░реА-рдЯреНрд░реЗрдирд┐рдВрдЧ рдореЗрдВ рдкрд░рдлреЙрд░реНрдореЗрдВрд╕-рдПрдлрд┐рд╢рд┐рдПрдВрд╕реА рдЯреНрд░реЗрдб-рдСрдлреНрд╕] (https://arxiv.org/abs/2109.06870) рдлреЗрд▓рд┐рдХреНрд╕ рд╡реВ, рдХреНрд╡рд╛рдВрдЧрдпреБрди рдХрд┐рдо, рдЬрд┐рдВрдЧ рдкреИрди, рдХреНрдпреВ рд╣рд╛рди, рдХрд┐рд▓рд┐рдпрди рдХреНрдпреВ. рд╡реЗрдирдмрд░реНрдЧрд░, рдпреЛрдЖрд╡ рдЖрд░реНрдЯрдЬрд╝реА рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
2023-03-15 01:49:10 +08:00
1. **[SpeechT5](https://huggingface.co/docs/transformers/model_doc/speecht5)** (from Microsoft Research) released with the paper [SpeechT5: Unified-Modal Encoder-Decoder Pre-Training for Spoken Language Processing](https://arxiv.org/abs/2110.07205) by Junyi Ao, Rui Wang, Long Zhou, Chengyi Wang, Shuo Ren, Yu Wu, Shujie Liu, Tom Ko, Qing Li, Yu Zhang, Zhihua Wei, Yao Qian, Jinyu Li, Furu Wei.
1. **[SpeechToTextTransformer](https://huggingface.co/docs/transformers/model_doc/speech_to_text)** (рдлреЗрд╕рдмреБрдХ рд╕реЗ), рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [рдлреЗрдпрд░рд╕реЗрдХ S2T: рдлрд╛рд╕реНрдЯ рд╕реНрдкреАрдЪ-рдЯреВ-рдЯреЗрдХреНрд╕реНрдЯ рдореЙрдбрд▓рд┐рдВрдЧ рд╡рд┐рдж рдлреЗрдпрд░рд╕реЗрдХ](https: //arxiv.org/abs/2010.05171) рдЪрд╛рдВрдЧрд╣рд╛рди рд╡рд╛рдВрдЧ, рдпреВрдВ рддрд╛рдВрдЧ, рдЬреБрддрд╛рдИ рдорд╛, рдРрдиреА рд╡реВ, рджрд┐рдорд┐рддреНрд░реЛ рдУрдЦреЛрдирдХреЛ, рдЬреБрдЖрди рдкрд┐рдиреЛ рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛уАВ
1. **[SpeechToTextTransformer2](https://huggingface.co/docs/transformers/model_doc/speech_to_text_2)** (рдлреЗрд╕рдмреБрдХ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [рд▓рд╛рд░реНрдЬ-рд╕реНрдХреЗрд▓ рд╕реЗрд▓реНрдл- рдПрдВрдб рд╕реЗрдореА-рд╕реБрдкрд░рд╡рд╛рдЗрдЬреНрдб рд▓рд░реНрдирд┐рдВрдЧ рдлреЙрд░ рд╕реНрдкреАрдЪ рдЯреНрд░рд╛рдВрд╕рд▓реЗрд╢рди](https://arxiv.org/abs/2104.06678) рдЪрд╛рдВрдЧрд╣рд╛рди рд╡рд╛рдВрдЧ, рдРрдиреА рд╡реВ, рдЬреБрдЖрди рдкрд┐рдиреЛ, рдПрд▓реЗрдХреНрд╕реА рдмреЗрд╡рд╕реНрдХреА, рдорд╛рдЗрдХрд▓ рдФрд▓реА, рдПрд▓реЗрдХреНрд╕рд┐рд╕ рджреНрд╡рд╛рд░рд╛ Conneau рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[Splinter](https://huggingface.co/docs/transformers/model_doc/splinter)** (рддреЗрд▓ рдЕрд╡реАрд╡ рдпреВрдирд┐рд╡рд░реНрд╕рд┐рдЯреА рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [рд╕реНрдкреИрди рд╕рд┐рд▓реЗрдХреНрд╢рди рдХреЛ рдкреНрд░реА-рдЯреНрд░реЗрдирд┐рдВрдЧ рдХрд░рдХреЗ рдХреБрдЫ-рд╢реЙрдЯ рдХреНрд╡реЗрд╢реНрдЪрди рдЖрдВрд╕рд░рд┐рдВрдЧ](https:// arxiv.org/abs/2101.00438) рдУрд░рд┐ рд░рд╛рдо, рдпреБрд╡рд▓ рдХрд░реНрд╕реНрдЯрди, рдЬреЛрдирд╛рдерди рдмреЗрд░реЗрдВрдЯ, рдЕрдореАрд░ рдЧреНрд▓реЛрдмрд░реНрд╕рди, рдУрдорд░ рд▓реЗрд╡реА рджреНрд╡рд╛рд░рд╛ред
1. **[SqueezeBERT](https://huggingface.co/docs/transformers/model_doc/squeezebert)** (рдмрд░реНрдХрд▓реЗ рд╕реЗ) рдХрд╛рдЧрдЬ рдХреЗ рд╕рд╛рде [SqueezeBERT: рдХреБрд╢рд▓ рддрдВрддреНрд░рд┐рдХрд╛ рдиреЗрдЯрд╡рд░реНрдХ рдХреЗ рдмрд╛рд░реЗ рдореЗрдВ NLP рдХреЛ рдХрдВрдкреНрдпреВрдЯрд░ рд╡рд┐рдЬрд╝рди рдХреНрдпрд╛ рд╕рд┐рдЦрд╛ рд╕рдХрддрд╛ рд╣реИ?](https: //arxiv.org/abs/2006.11316) рдлреЙрд░реЗрд╕реНрдЯ рдПрди. рдЗрдирдбреЛрд▓рд╛, рдЕрд▓реНрдмрд░реНрдЯ рдИ. рд╢реЙ, рд░рд╡рд┐ рдХреГрд╖реНрдгрд╛, рдФрд░ рдХрд░реНрдЯ рдбрдмреНрд▓реНрдпреВ. рдХреЗрдЯрдЬрд╝рд░ рджреНрд╡рд╛рд░рд╛ред
2023-06-13 04:24:27 +08:00
1. **[SwiftFormer](https://huggingface.co/docs/transformers/model_doc/swiftformer)** (MBZUAI рд╕реЗ) Abdelrahman Shaker, Muhammad Maaz, Hanoona Rasheed, Salman Khan, Ming-Hsuan Yang, Fahad Shahbaz Khan. рджреНрд╡рд╛рд░рд╛рдЕрдиреБрд╕рдВрдзрд╛рди рдкрддреНрд░ [SwiftFormer: Efficient Additive Attention for Transformer-based Real-time Mobile Vision Applications](https://arxiv.org/abs/2303.15446) рдХреЗ рд╕рд╛рде рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЧрдпрд╛
1. **[Swin Transformer](https://huggingface.co/docs/transformers/model_doc/swin)** (рдорд╛рдЗрдХреНрд░реЛрд╕реЙрдлреНрдЯ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдХрд╛рдЧрдЬ [рд╕реНрд╡рд╛рдЗрди рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░: рд╢рд┐рдлреНрдЯреЗрдб рд╡рд┐рдВрдбреЛрдЬ рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрд░ рдкрджрд╛рдиреБрдХреНрд░рдорд┐рдд рд╡рд┐рдЬрди рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░](https://arxiv .org/abs/2103.14030) рдЬрд╝реА рд▓рд┐рдпреВ, рдпреБрдЯреЛрдВрдЧ рд▓рд┐рди, рдпреВ рдХрд╛рдУ, рд╣рд╛рди рд╣реВ, рдпрд┐рдХреНрд╕реБрдЖрди рд╡реЗрдИ, рдЭреЗрдВрдЧ рдЭрд╛рдВрдЧ, рд╕реНрдЯреАрдлрди рд▓рд┐рди, рдмреИрдирд┐рдВрдЧ рдЧреБрдУ рджреНрд╡рд╛рд░рд╛ред
1. **[Swin Transformer V2](https://huggingface.co/docs/transformers/model_doc/swinv2)** (Microsoft рд╕реЗ) рд╕рд╛рде рд╡рд╛рд▓рд╛ рдкреЗрдкрд░ [Swin Transformer V2: рд╕реНрдХреЗрд▓рд┐рдВрдЧ рдЕрдк рдХреИрдкреЗрд╕рд┐рдЯреА рдПрдВрдб рд░реЗрдЬреЛрд▓реНрдпреВрд╢рди](https:// рдЬрд╝реА рд▓рд┐рдпреВ, рд╣рд╛рди рд╣реВ, рдпреБрдЯреЛрдВрдЧ рд▓рд┐рди, рдЬрд╝реБрд▓рд┐рдЖрдВрдЧ рдпрд╛рдУ, рдЬрд╝реЗрдВрдбрд╛ рдЬрд╝реА, рдпрд┐рдХреНрд╕реБрдЖрди рд╡реЗрдИ, рдЬрд┐рдпрд╛ рдирд┐рдВрдЧ, рдпреВ рдХрд╛рдУ, рдЭреЗрдВрдЧ рдЭрд╛рдВрдЧ, рд▓реА рдбреЛрдВрдЧ, рдлреБрд░реБ рд╡реЗрдИ, рдмреИрдирд┐рдВрдЧ рдЧреБрдУ рджреНрд╡рд╛рд░рд╛ arxiv.org/abs/2111.09883ред
1. **[Swin2SR](https://huggingface.co/docs/transformers/model_doc/swin2sr)** (from University of W├╝rzburg) released with the paper [Swin2SR: SwinV2 Transformer for Compressed Image Super-Resolution and Restoration](https://arxiv.org/abs/2209.11345) by Marcos V. Conde, Ui-Jin Choi, Maxime Burchi, Radu Timofte.
1. **[SwitchTransformers](https://huggingface.co/docs/transformers/model_doc/switch_transformers)** (from Google) released with the paper [Switch Transformers: Scaling to Trillion Parameter Models with Simple and Efficient Sparsity](https://arxiv.org/abs/2101.03961) by William Fedus, Barret Zoph, Noam Shazeer.
1. **[T5](https://huggingface.co/docs/transformers/model_doc/t5)** (цЭешЗк Google AI)рдХреЙрд▓рд┐рди рд░реИрдлреЗрд▓ рдФрд░ рдиреЛрдо рд╢рдЬрд╝реАрд░ рдФрд░ рдПрдбрдо рд░реЙрдмрд░реНрдЯреНрд╕ рдФрд░ рдХреИрдерд░реАрди рд▓реА рдФрд░ рд╢рд░рдг рдирд╛рд░рдВрдЧ рдФрд░ рдорд╛рдЗрдХрд▓ рдордЯреЗрдирд╛ рджреНрд╡рд╛рд░рд╛ рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [рдПрдХ рдПрдХреАрдХреГрдд рдЯреЗрдХреНрд╕реНрдЯ-рдЯреВ-рдЯреЗрдХреНрд╕реНрдЯ рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░ рдХреЗ рд╕рд╛рде рд╕реНрдерд╛рдирд╛рдВрддрд░рдг рд╕реАрдЦрдиреЗ рдХреА рд╕реАрдорд╛ рдХреА рдЦреЛрдЬ] (https://arxiv.org/abs/1910.10683) рдФрд░ рдпрд╛рдВрдХреА рдЭреЛрдЙ рдФрд░ рд╡реЗрдИ рд▓реА рдФрд░ рдкреАрдЯрд░ рдЬреЗ рд▓рд┐рдпреВред
1. **[T5v1.1](https://huggingface.co/docs/transformers/model_doc/t5v1.1)** (Google AI рд╕реЗ) рд╕рд╛рде рд╡рд╛рд▓рд╛ рдкреЗрдкрд░ [google-research/text-to-text-transfer- рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░](https://github.com/google-research/text-to-text-transfer-transformer/blob/main/released_checkpoints.md#t511) рдХреЙрд▓рд┐рди рд░реИрдлреЗрд▓ рдФрд░ рдиреЛрдо рд╢рдЬрд╝реАрд░ рдФрд░ рдПрдбрдо рд░реЙрдмрд░реНрдЯреНрд╕ рдФрд░ рдХреИрдерд░реАрди рд▓реА рдФрд░ рд╢рд░рдг рдирд╛рд░рдВрдЧ рджреНрд╡рд╛рд░рд╛ рдФрд░ рдорд╛рдЗрдХрд▓ рдордЯреЗрдирд╛ рдФрд░ рдпрд╛рдВрдХреА рдЭреЛрдЙ рдФрд░ рд╡реЗрдИ рд▓реА рдФрд░ рдкреАрдЯрд░ рдЬреЗ рд▓рд┐рдпреВред
1. **[Table Transformer](https://huggingface.co/docs/transformers/model_doc/table-transformer)** (рдорд╛рдЗрдХреНрд░реЛрд╕реЙрдлреНрдЯ рд░рд┐рд╕рд░реНрдЪ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [рдкрдмрдЯреЗрдмрд▓реНрд╕-1рдПрдо: рдЯреВрд╡рд░реНрдбреНрд╕ рдХреЙрдореНрдкреНрд░рд┐рд╣реЗрдВрд╕рд┐рд╡ рдЯреЗрдмрд▓ рдПрдХреНрд╕рдЯреНрд░реИрдХреНрд╢рди рдлреНрд░реЙрдо рдЕрдирд╕реНрдЯреНрд░рдХреНрдЪрд░реНрдб рдбреЙрдХреНрдпреВрдореЗрдВрдЯреНрд╕ ](https://arxiv.org/abs/2110.00061) рдмреНрд░реИрдВрдбрди рд╕реНрдореЙрдХ, рд░реЛрд╣рд┐рдд рдкреЗрд╕рд╛рд▓рд╛, рд░реЙрдмрд┐рди рдЕрдмреНрд░рд╛рд╣рдо рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[TAPAS](https://huggingface.co/docs/transformers/model_doc/tapas)** (Google AI рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдХрд╛рдЧрдЬ [TAPAS: рдкреВрд░реНрд╡-рдкреНрд░рд╢рд┐рдХреНрд╖рдг рдХреЗ рдорд╛рдзреНрдпрдо рд╕реЗ рдХрдордЬреЛрд░ рдкрд░реНрдпрд╡реЗрдХреНрд╖рдг рддрд╛рд▓рд┐рдХрд╛ рдкрд╛рд░реНрд╕рд┐рдВрдЧ](https:// arxiv.org/abs/2004.02349) рдЬреЛрдирд╛рдерди рд╣рд░реНрдЬрд╝рд┐рдЧ, рдкрд╛рд╡реЗрд▓ рдХреНрд░рд┐рдЬрд╝рд┐рд╕реНрддреЛрдлрд╝ рдиреЛрд╡рд╛рдХ, рдереЙрдорд╕ рдореБрд▓рд░, рдлреНрд░рд╛рдВрд╕реЗрд╕реНрдХреЛ рдкрд┐рдХрд┐рдиреНрдиреЛ рдФрд░ рдЬреВрд▓рд┐рдпрди рдорд╛рд░реНрдЯрд┐рди рдИрд╕реЗрдиреНрдЪреНрд▓реЛрд╕ рджреНрд╡рд╛рд░рд╛ред
1. **[TAPEX](https://huggingface.co/docs/transformers/model_doc/tapex)** (рдорд╛рдЗрдХреНрд░реЛрд╕реЙрдлреНрдЯ рд░рд┐рд╕рд░реНрдЪ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [TAPEX: рдЯреЗрдмрд▓ рдкреНрд░реА-рдЯреНрд░реЗрдирд┐рдВрдЧ рдереНрд░реВ рд▓рд░реНрдирд┐рдВрдЧ рдЕ рдиреНрдпреВрд░рд▓ SQL рдПрдХреНрдЬрд╝реАрдХреНрдпреВрдЯрд░](https: //arxiv.org/abs/2107.07653) рдХрд┐рдпрд╛рди рд▓рд┐рдпреВ, рдмреЗрдИ рдЪреЗрди, рдЬрд┐рдпрд╛рдХреА рдЧреБрдУ, рдореЛрд░реНрдЯреЗрдЬрд╝рд╛ рдЬрд╝рд┐рдпрд╛рджреА, рдЬрд╝реЗрдХреА рд▓рд┐рди, рд╡реАрдЬрд╝реВ рдЪреЗрди, рдЬрд┐рдпрд╛рди-рдЧреБрдЖрдВрдЧ рд▓реВ рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[Time Series Transformer](https://huggingface.co/docs/transformers/model_doc/time_series_transformer)** (from HuggingFace).
1. **[TimeSformer](https://huggingface.co/docs/transformers/model_doc/timesformer)** (from Facebook) released with the paper [Is Space-Time Attention All You Need for Video Understanding?](https://arxiv.org/abs/2102.05095) by Gedas Bertasius, Heng Wang, Lorenzo Torresani.
1. **[Trajectory Transformer](https://huggingface.co/docs/transformers/model_doc/trajectory_transformers)** (from the University of California at Berkeley) released with the paper [Offline Reinforcement Learning as One Big Sequence Modeling Problem](https://arxiv.org/abs/2106.02039) by Michael Janner, Qiyang Li, Sergey Levine
1. **[Transformer-XL](https://huggingface.co/docs/transformers/model_doc/transfo-xl)** (Google/CMU рдХреА рдУрд░ рд╕реЗ) рдХрд╛рдЧрдЬ рдХреЗ рд╕рд╛рде [рд╕рдВрд╕реНрдХрд░рдг-рдПрдХреНрд╕: рдПрдХ рдмреНрд▓реЙрдЧ рдореЙрдбрд▓ рдЪреМрдХрд╕ рдЪреМрдХ рдореЙрдбрд▓ рдореЙрдбрд▓] (https://arxivorg/abs/1901.02860) рдХреНрд╡реЛрдХреЛрдХ рд╡реА. рд▓реЗ, рд░реБрд╕реНрд▓реИрди рд╕рд▓рд╛рдЦреБрддрджреА
1. **[TrOCR](https://huggingface.co/docs/transformers/model_doc/trocr)** (from Microsoft) released with the paper [TrOCR: Transformer-based Optical Character Recognition with Pre-trained Models](https://arxiv.org/abs/2109.10282) by Minghao Li, Tengchao Lv, Lei Cui, Yijuan Lu, Dinei Florencio, Cha Zhang, Zhoujun Li, Furu Wei.
2023-03-15 01:49:10 +08:00
1. **[TVLT](https://huggingface.co/docs/transformers/model_doc/tvlt)** (from UNC Chapel Hill) released with the paper [TVLT: Textless Vision-Language Transformer](https://arxiv.org/abs/2209.14156) by Zineng Tang, Jaemin Cho, Yixin Nie, Mohit Bansal.
[WIP] add SpeechT5 model (#18922) * make SpeechT5 model by copying Wav2Vec2 * add paper to docs * whoops added docs in wrong file * remove SpeechT5Tokenizer + put CTC back in the name * remove deprecated class * remove unused docstring * delete SpeechT5FeatureExtractor, use Wav2Vec2FeatureExtractor instead * remove classes we don't need right now * initial stab at speech encoder prenet * add more speech encoder prenet stuff * improve SpeechEncoderPrenet * add encoder (not finished yet) * add relative position bias to self-attention * add encoder CTC layers * fix formatting * add decoder from BART, doesn't work yet * make it work with generate loop * wrap the encoder into a speech encoder class * wrap the decoder in a text decoder class * changed my mind * changed my mind again ;-) * load decoder weights, make it work * add weights for text decoder postnet * add SpeechT5ForCTC model that uses only the encoder * clean up EncoderLayer and DecoderLayer * implement _init_weights in SpeechT5PreTrainedModel * cleanup config + Encoder and Decoder * add head + cross attention masks * improve doc comments * fixup * more cleanup * more fixup * TextDecoderPrenet works now, thanks Kendall * add CTC loss * add placeholders for other pre/postnets * add type annotation * fix freeze_feature_encoder * set padding tokens to 0 in decoder attention mask * encoder attention mask downsampling * remove features_pen calculation * disable the padding tokens thing again * fixup * more fixup * code review fixes * rename encoder/decoder wrapper classes * allow checkpoints to be loaded into SpeechT5Model * put encoder into wrapper for CTC model * clean up conversion script * add encoder for TTS model * add speech decoder prenet * add speech decoder post-net * attempt to reconstruct the generation loop * add speech generation loop * clean up generate_speech * small tweaks * fix forward pass * enable always dropout on speech decoder prenet * sort declaration * rename models * fixup * fix copies * more fixup * make consistency checker happy * add Seq2SeqSpectrogramOutput class * doc comments * quick note about loss and labels * add HiFi-GAN implementation (from Speech2Speech PR) * rename file * add vocoder to TTS model * improve vocoder * working on tokenizer * more better tokenizer * add CTC tokenizer * fix decode and batch_code in CTC tokenizer * fix processor * two processors and feature extractors * use SpeechT5WaveformFeatureExtractor instead of Wav2Vec2 * cleanup * more cleanup * even more fixup * notebooks * fix log-mel spectrograms * support reduction factor * fixup * shift spectrograms to right to create decoder inputs * return correct labels * add labels for stop token prediction * fix doc comments * fixup * remove SpeechT5ForPreTraining * more fixup * update copyright headers * add usage examples * add SpeechT5ProcessorForCTC * fixup * push unofficial checkpoints to hub * initial version of tokenizer unit tests * add slow test * fix failing tests * tests for CTC tokenizer * finish CTC tokenizer tests * processor tests * initial test for feature extractors * tests for spectrogram feature extractor * fixup * more fixup * add decorators * require speech for tests * modeling tests * more tests for ASR model * fix imports * add fake tests for the other models * fixup * remove jupyter notebooks * add missing SpeechT5Model tests * add missing tests for SpeechT5ForCTC * add missing tests for SpeechT5ForTextToSpeech * sort tests by name * fix Hi-Fi GAN tests * fixup * add speech-to-speech model * refactor duplicate speech generation code * add processor for SpeechToSpeech model * add usage example * add tests for speech-to-speech model * fixup * enable gradient checkpointing for SpeechT5FeatureEncoder * code review * push_to_hub now takes repo_id * improve doc comments for HiFi-GAN config * add missing test * add integration tests * make number of layers in speech decoder prenet configurable * rename variable * rename variables * add auto classes for TTS and S2S * REMOVE CTC!!! * S2S processor does not support save/load_pretrained * fixup * these models are now in an auto mapping * fix doc links * rename HiFiGAN to HifiGan, remove separate config file * REMOVE auto classes * there can be only one * fixup * replace assert * reformat * feature extractor can process input and target at same time * update checkpoint names * fix commit hash
2023-02-04 01:43:46 +08:00
1. **[UL2](https://huggingface.co/docs/transformers/model_doc/ul2)** (from Google Research) released with the paper [Unifying Language Learning Paradigms](https://arxiv.org/abs/2205.05131v1) by Yi Tay, Mostafa Dehghani, Vinh Q. Tran, Xavier Garcia, Dara Bahri, Tal Schuster, Huaixiu Steven Zheng, Neil Houlsby, Donald Metzler
[`Umt5`] Add google's umt5 to `transformers` (#24477) * add tokenization template * update conversion script * update modeling code * update * update convert checkpoint * update modeling * revert changes on convert script * new conversion script for new format * correct position bias * cleaning a bit * Credit co authors Co-authored-by: agemagician <ahmed.elnaggar@tum.de> Co-authored-by: stefan-it <> * styling * Add docq * fix copies * add co author * Other Author * Merge branch 'main' of https://github.com/huggingface/transformers into add-umt5 * add testing * nit * Update docs/source/en/model_doc/umt5.mdx Co-authored-by: Stefan Schweter <stefan@schweter.it> * fix t5 * actual fix? * revert wrong changes * remove * update test * more fixes * revert some changes * add SPIECE_UNDERLINE * add a commone xample * upfate * fix copies * revert changes on t5 conversion script * revert bytefallback changes since there was no addition yet * fixup * fixup * ingore umt5 cutom testing folder * fix readmes * revertT5 changes * same outputs * fixup * update example * Apply suggestions from code review * style * draft addition of all new files * current update * fix attention and stuff * finish refactoring * auto config * fixup * more nits * add umt5 to init * use md format * Update README.md Co-authored-by: Sylvain Gugger <35901082+sgugger@users.noreply.github.com> * revert changes on mt5 * revert mt4 changes * update test * more fixes * add to mapping * fix-copies * fix copies * foix retain grad * fix some tests * nits * done * Update src/transformers/models/umt5/modeling_umt5.py Co-authored-by: Sylvain Gugger <35901082+sgugger@users.noreply.github.com> * Update docs/source/en/model_doc/umt5.md * Update src/transformers/models/umt5/__init__.py * Update docs/source/en/model_doc/umt5.md Co-authored-by: Stefan Schweter <stefan@schweter.it> * Update src/transformers/models/umt5/modeling_umt5.py * update conversion script + use google checkpoints * nits * update test and modelling * stash slow convert * update fixupd * don't change slow --------- Co-authored-by: stefan-it <> Co-authored-by: Stefan Schweter <stefan@schweter.it> Co-authored-by: Sylvain Gugger <35901082+sgugger@users.noreply.github.com>
2023-07-03 13:38:21 +08:00
1. **[UMT5](https://huggingface.co/docs/transformers/main/model_doc/umt5)** (Google Research рд╕реЗ) Hyung Won Chung, Xavier Garcia, Adam Roberts, Yi Tay, Orhan Firat, Sharan Narang, Noah Constant. рджреНрд╡рд╛рд░рд╛рдЕрдиреБрд╕рдВрдзрд╛рди рдкрддреНрд░ [UniMax: Fairer and More Effective Language Sampling for Large-Scale Multilingual Pretraining](https://openreview.net/forum?id=kXwdL1cWOAi) рдХреЗ рд╕рд╛рде рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЧрдпрд╛
1. **[UniSpeech](https://huggingface.co/docs/transformers/model_doc/unispeech)** (рдорд╛рдЗрдХреНрд░реЛрд╕реЙрдлреНрдЯ рд░рд┐рд╕рд░реНрдЪ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рджрд┐рдпрд╛ рдЧрдпрд╛ рдкреЗрдкрд░ [UniSpeech: рдпреВрдирд┐рдлрд╛рдЗрдб рд╕реНрдкреАрдЪ рд░рд┐рдкреНрд░реЗрдЬреЗрдВрдЯреЗрд╢рди рд▓рд░реНрдирд┐рдВрдЧ рд╡рд┐рдж рд▓реЗрдмрд▓реЗрдб рдПрдВрдб рдЕрдирд▓реЗрдмрд▓реНрдб рдбреЗрдЯрд╛](https:/ /arxiv.org/abs/2101.07597) рдЪреЗрдВрдЧрдИ рд╡рд╛рдВрдЧ, рдпреВ рд╡реВ, рдпрд╛рдУ рдХрд┐рдпрд╛рди, рдХреЗрдирд┐рдЪреА рдХреБрдорд╛рддрд╛рдиреА, рд╢реБрдЬреА рд▓рд┐рдпреВ, рдлреБрд░реБ рд╡реЗрдИ, рдорд╛рдЗрдХрд▓ рдЬрд╝реЗрдВрдЧ, рдЬрд╝реБрдПрджреЛрдВрдЧ рд╣реБрдЖрдВрдЧ рджреНрд╡рд╛рд░рд╛ред
1. **[UniSpeechSat](https://huggingface.co/docs/transformers/model_doc/unispeech-sat)** (рдорд╛рдЗрдХреНрд░реЛрд╕реЙрдлреНрдЯ рд░рд┐рд╕рд░реНрдЪ рд╕реЗ) рдХрд╛рдЧрдЬ рдХреЗ рд╕рд╛рде [UNISPEECH-SAT: рдпреВрдирд┐рд╡рд░реНрд╕рд▓ рд╕реНрдкреАрдЪ рд░рд┐рдкреНрд░реЗрдЬреЗрдВрдЯреЗрд╢рди рд▓рд░реНрдирд┐рдВрдЧ рд╡рд┐рдж рд╕реНрдкреАрдХрд░ рдЕрд╡реЗрдпрд░ рдкреНрд░реА-рдЯреНрд░реЗрдирд┐рдВрдЧ ](https://arxiv.org/abs/2110.05752) рд╕рд╛рдирдпреБрдЖрди рдЪреЗрди, рдпреВ рд╡реВ, рдЪреЗрдВрдЧреНрдпреА рд╡рд╛рдВрдЧ, рдЭреЗрдВрдЧрдпрд╛рдВрдЧ рдЪреЗрди, рдЭреВрдУ рдЪреЗрди, рд╢реБрдЬреА рд▓рд┐рдпреВ, рдЬрд┐рдпрд╛рди рд╡реВ, рдпрд╛рдУ рдХрд┐рдпрд╛рди, рдлреБрд░реБ рд╡реЗрдИ, рдЬрд┐рдиреНрдпреБ рд▓реА, рдЬрд┐рдпрд╛рдВрдЧрдЬрд╝рд╛рди рдпреВ рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[UPerNet](https://huggingface.co/docs/transformers/model_doc/upernet)** (from Peking University) released with the paper [Unified Perceptual Parsing for Scene Understanding](https://arxiv.org/abs/1807.10221) by Tete Xiao, Yingcheng Liu, Bolei Zhou, Yuning Jiang, Jian Sun.
1. **[VAN](https://huggingface.co/docs/transformers/model_doc/van)** (рд╕рд┐рдВрдШреБрдЖ рдпреВрдирд┐рд╡рд░реНрд╕рд┐рдЯреА рдФрд░ рдирдирдХрд╛рдИ рдпреВрдирд┐рд╡рд░реНрд╕рд┐рдЯреА рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [рд╡рд┐рдЬреБрдЕрд▓ рдЕрдЯреЗрдВрд╢рди рдиреЗрдЯрд╡рд░реНрдХ](https://arxiv.org/ pdf/2202.09741.pdf) рдореЗрдВрдЧ-рд╣рд╛рдУ рдЧреБрдУ, рдЪреЗрдВрдЧ-рдЬрд╝реЗ рд▓реВ, рдЭреЗрдВрдЧ-рдирд┐рдВрдЧ рд▓рд┐рдпреВ, рдорд┐рдВрдЧ-рдорд┐рдВрдЧ рдЪреЗрдВрдЧ, рд╢рд┐-рдорд┐рди рд╣реВ рджреНрд╡рд╛рд░рд╛ред
1. **[VideoMAE](https://huggingface.co/docs/transformers/model_doc/videomae)** (рдорд▓реНрдЯреАрдореАрдбрд┐рдпрд╛ рдХрдореНрдкреНрдпреВрдЯрд┐рдВрдЧ рдЧреНрд░реБрдк, рдирд╛рдирдЬрд┐рдВрдЧ рдпреВрдирд┐рд╡рд░реНрд╕рд┐рдЯреА рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [рд╡реАрдбрд┐рдпреЛрдПрдордПрдИ: рдорд╛рд╕реНрдХреНрдб рдСрдЯреЛрдПрдиреНрдХреЛрдбрд░ рд╕реНрд╡-рдкрд░реНрдпрд╡реЗрдХреНрд╖рд┐рдд рд╡реАрдбрд┐рдпреЛ рдкреНрд░реА-рдЯреНрд░реЗрдирд┐рдВрдЧ рдХреЗ рд▓рд┐рдП рдбреЗрдЯрд╛-рдХреБрд╢рд▓ рд╕реАрдЦрдиреЗ рд╡рд╛рд▓реЗ рд╣реИрдВ] (https://arxiv.org/abs/2203.12602) рдЬрд╝рд╛рди рдЯреЛрдВрдЧ, рдпрд┐рдмрд┐рдВрдЧ рд╕реЙрдиреНрдЧ, рдЬреБрдП рджреНрд╡рд╛рд░рд╛ рд╡рд╛рдВрдЧ, рд▓рд┐рдорд┐рди рд╡рд╛рдВрдЧ рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[ViLT](https://huggingface.co/docs/transformers/model_doc/vilt)** (NAVER AI Lab/Kakao Enterprise/Kakao Brain рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдХрд╛рдЧрдЬ [ViLT: Vision-and-Language Transformer рдмрд┐рдирд╛ рдХрдирд╡рд▓реНрд╢рди рдпрд╛ рд░реАрдЬрди рд╕реБрдкрд░рд╡рд┐рдЬрди](https://arxiv.org/abs/2102.03334) рд╡реЛрдирдЬреЗ рдХрд┐рдо, рдмреЛрдХреНрдпреВрдВрдЧ рд╕реЛрди, рдЗрд▓реНрдбреВ рдХрд┐рдо рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[Vision Transformer (ViT)](https://huggingface.co/docs/transformers/model_doc/vit)** (рдЧреВрдЧрд▓ рдПрдЖрдИ рд╕реЗ) рдХрд╛рдЧрдЬ рдХреЗ рд╕рд╛рде [рдПрдХ рдЗрдореЗрдЬ рдЗрдЬрд╝ рд╡рд░реНрде 16x16 рд╡рд░реНрдбреНрд╕: рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░реНрд╕ рдлреЙрд░ рдЗрдореЗрдЬ рд░рд┐рдХреЙрдЧреНрдирд┐рд╢рди рдПрдЯ рд╕реНрдХреЗрд▓](https://arxiv.org/abs/2010.11929) рдПрд▓реЗрдХреНрд╕реА рдбреЛрд╕реЛрд╡рд┐рддреНрд╕реНрдХреА, рд▓реБрдХрд╛рд╕ рдмреЗрдпрд░, рдЕрд▓реЗрдХреНрдЬреЗрдВрдбрд░ рдХреЛрд▓реЗрд╕рдирд┐рдХреЛрд╡, рдбрд┐рд░реНрдХ рд╡реАрд╕реЗрдирдмреЛрд░реНрди, рд╢рд┐рдпрд╛рдУрд╣реБрдЖ рдЭрд╛рдИ, рдереЙрдорд╕ рдЕрдирдЯрд░рдерд┐рдирд░, рдореБрд╕реНрддрдлрд╛ рджреЗрд╣рдШрд╛рдиреА, рдореИрдерд┐рдпрд╛рд╕ рдорд┐рдВрдбрд░рд░, рдЬреЙрд░реНрдЬ рд╣реЗрдЧреЛрд▓реНрдб, рд╕рд┐рд▓реНрд╡реЗрди рдЧреЗрд▓реА, рдЬреИрдХрдм рдЙрд╕реНрдЬрд╝рдХреЛрд░реЗрдЗрдЯ рджреНрд╡рд╛рд░рд╛ рд╣реЙрд▓реНрд╕рдмреА рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[VisualBERT](https://huggingface.co/docs/transformers/model_doc/visual_bert)** (UCLA NLP рд╕реЗ) рд╕рд╛рде рд╡рд╛рд▓рд╛ рдкреЗрдкрд░ [VisualBERT: A Simple and Performant Baseline for Vision and Language](https:/ /arxiv.org/pdf/1908.03557) рд▓рд┐рдпреБрдирд┐рдпрди рд╣реЗрд░реЛрд▓реНрдб рд▓реА, рдорд╛рд░реНрдХ рдпрд╛рддреНрд╕реНрдХрд░, рджрд╛ рдпрд┐рди, рдЪреЛ-рдЬреБрдИ рд╣рд╕реАрд╣, рдХрд╛рдИ-рд╡реЗрдИ рдЪрд╛рдВрдЧ рджреНрд╡рд╛рд░рд╛ред
1. **[ViT Hybrid](https://huggingface.co/docs/transformers/model_doc/vit_hybrid)** (from Google AI) released with the paper [An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale](https://arxiv.org/abs/2010.11929) by Alexey Dosovitskiy, Lucas Beyer, Alexander Kolesnikov, Dirk Weissenborn, Xiaohua Zhai, Thomas Unterthiner, Mostafa Dehghani, Matthias Minderer, Georg Heigold, Sylvain Gelly, Jakob Uszkoreit, Neil Houlsby.
1. **[ViTMAE](https://huggingface.co/docs/transformers/model_doc/vit_mae)** (рдореЗрдЯрд╛ рдПрдЖрдИ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдХрд╛рдЧрдЬ [рдорд╛рд╕реНрдХрдб рдСрдЯреЛрдПрдиреНрдХреЛрдбрд░ рд╕реНрдХреЗрд▓реЗрдмрд▓ рд╡рд┐рдЬрди рд▓рд░реНрдирд░реНрд╕ рд╣реИрдВ](https://arxiv.org/ рдПрдмреНрд╕/2111.06377) рдХреИрдорд┐рдВрдЧ рд╣реЗ, рдЬрд╝рд┐рдиреЗрд▓реА рдЪреЗрди, рд╕реЗрдирд┐рдВрдЧ рдЬрд╝реА, рдпрд╛рдВрдЧрд╣реЛ рд▓реА, рдкрд┐рдУрдЯреНрд░ рдбреЙрд▓рд░, рд░реЙрд╕ рдЧрд┐рд░реНрд╢рд┐рдХ рджреНрд╡рд╛рд░рд╛ред
1. **[ViTMSN](https://huggingface.co/docs/transformers/model_doc/vit_msn)** (рдореЗрдЯрд╛ рдПрдЖрдИ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдХрд╛рдЧрдЬ [рд▓реЗрдмрд▓-рдХреБрд╢рд▓ рд╕реАрдЦрдиреЗ рдХреЗ рд▓рд┐рдП рдорд╛рд╕реНрдХреНрдб рд╕реНрдпрд╛рдо рджреЗрд╢ рдХреЗ рдиреЗрдЯрд╡рд░реНрдХ](https://arxiv. org/abs/2204.07141) рдорд╣рдореВрдж рдЕрд╕рд░рд╛рди, рдордерд┐рд▓реНрдбреЗ рдХреИрд░рди, рдИрд╢рд╛рди рдорд┐рд╢реНрд░рд╛, рдкрд┐рдпреЛрдЯреНрд░ рдмреЛрдЬрд╛рдиреЛрд╡рд╕реНрдХреА, рдлреНрд▓реЛрд░рд┐рдпрди рдмреЛрд░реНрдбреЗрд╕, рдкрд╛рд╕реНрдХрд▓ рд╡рд┐рдВрд╕реЗрдВрдЯ, рдЖрд░реНрдордВрдб рдЬреМрд▓рд┐рди, рдорд╛рдЗрдХрд▓ рд░рдмреНрдмрдд, рдирд┐рдХреЛрд▓рд╕ рдмрд▓реНрд▓рд╛рд╕ рджреНрд╡рд╛рд░рд╛ред
Add ViViT (#22518) * Add model * Add ability to get classification head weights * Add docs * Add imports to __init__.py * Run style * Fix imports and add mdx doc * Run style * Fix copyright * Fix config docstring * Remove imports of ViViTLayer and load_tf_weights_in_vivit * Remove FeatureExtractor and replace with ImageProcessor everywhere * Remove ViViTForPreTraining from vivit.mdx * Change ViViT -> Vivit everywhere * Add model_doc to _toctree.yml * Replace tuples with lists in arguments of VivitConfig * Rename patch_size to tubelet_size in TubeletEmbeddings * Fix checkpoint names * Add tests * Remove unused num_frames * Fix imports for VivitImageProcessor * Minor fixes * Decrease number of frames in VivitModelTester from 32 to 16 * Decrease number of frames in VivitModelTester from 16 to 8 * Add initialization for pos embeddings * Rename Vivit -> ViViT in some places * Fix docstring and formatting * Rename TubeletEmbeddings -> VivitTubeletEmbeddings * Remove load_tf_weights_in_vivit * Change checkpoint name * Remove Vivit _TOKENIZER_FOR_DOC * Fix * Fix VivitTubeletEmbeddings and pass config object as parameter * Use image_size and num_frames instead of video_size * Change conversion script and fix differences with the orig implementation * Fix docstrings * Add attention head pruning * Run style and fixup * Fix tests * Add ViViT to video_classification.mdx * Save processor in conversion script * Fix * Add image processor test * Run fixup and style * Run fix-copies * Update tests/models/vivit/test_modeling_vivit.py Co-authored-by: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Update tests/models/vivit/test_modeling_vivit.py Co-authored-by: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Update src/transformers/models/vivit/modeling_vivit.py Co-authored-by: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Use PyAV instead of decord * Add unittest.skip * Run style * Remove unneeded test * Update docs/source/en/model_doc/vivit.mdx Co-authored-by: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Update src/transformers/models/vivit/configuration_vivit.py Co-authored-by: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Update src/transformers/models/vivit/modeling_vivit.py Co-authored-by: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Update src/transformers/models/vivit/image_processing_vivit.py Co-authored-by: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Update src/transformers/models/vivit/modeling_vivit.py Co-authored-by: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Update src/transformers/models/vivit/modeling_vivit.py Co-authored-by: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Update src/transformers/models/vivit/image_processing_vivit.py Co-authored-by: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Update src/transformers/models/vivit/modeling_vivit.py Co-authored-by: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Add model * Add docs * Run style * Fix imports and add mdx doc * Remove FeatureExtractor and replace with ImageProcessor everywhere * Change ViViT -> Vivit everywhere * Rename Vivit -> ViViT in some places * Update src/transformers/models/vivit/image_processing_vivit.py Co-authored-by: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Run make style * Remove inputs save * Fix image processor * Fix * Run `make style` * Decrease parameters of VivitModelTester * Decrease tubelet size * Rename vivit.mdx * Update src/transformers/models/vivit/image_processing_vivit.py Co-authored-by: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Update src/transformers/models/vivit/image_processing_vivit.py Co-authored-by: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Update src/transformers/models/vivit/image_processing_vivit.py Co-authored-by: amyeroberts <22614925+amyeroberts@users.noreply.github.com> * Fix default values in image_processing_vivit.py --------- Co-authored-by: amyeroberts <22614925+amyeroberts@users.noreply.github.com>
2023-07-11 21:04:04 +08:00
1. **[ViViT](https://huggingface.co/docs/transformers/main/model_doc/vivit)** (from Google Research) released with the paper [ViViT: A Video Vision Transformer](https://arxiv.org/abs/2103.15691) by Anurag Arnab, Mostafa Dehghani, Georg Heigold, Chen Sun, Mario Lu─Нi─З, Cordelia Schmid.
1. **[Wav2Vec2](https://huggingface.co/docs/transformers/model_doc/wav2vec2)** (рдлреЗрд╕рдмреБрдХ рдПрдЖрдИ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [wav2vec 2.0: рдП рдлреНрд░реЗрдорд╡рд░реНрдХ рдлреЙрд░ рд╕реЗрд▓реНрдл-рд╕реБрдкрд░рд╡рд╛рдЗрдЬреНрдб рд▓рд░реНрдирд┐рдВрдЧ рдСрдл рд╕реНрдкреАрдЪ рд░рд┐рдкреНрд░реЗрдЬреЗрдВрдЯреЗрд╢рди] (https://arxiv.org/abs/2006.11477) рдПрд▓реЗрдХреНрд╕реА рдмреЗрд╡рд╕реНрдХреА, рд╣реЗрдирд░реА рдЭреЛрдЙ, рдЕрдмреНрджреЗрд▓рд░рд╣рдорд╛рди рдореЛрд╣рдореНрдордж, рдорд╛рдЗрдХрд▓ рдФрд▓реА рджреНрд╡рд╛рд░рд╛ред
1. **[Wav2Vec2-Conformer](https://huggingface.co/docs/transformers/model_doc/wav2vec2-conformer)** (Facebook AI рд╕реЗ) рд╕рд╛рде рд╡рд╛рд▓рд╛ рдкреЗрдкрд░ [FAIRSEQ S2T: FAIRSEQ рдХреЗ рд╕рд╛рде рдлрд╛рд╕реНрдЯ рд╕реНрдкреАрдЪ-рдЯреВ-рдЯреЗрдХреНрд╕реНрдЯ рдореЙрдбрд▓рд┐рдВрдЧ ](https://arxiv.org/abs/2010.05171) рдЪрд╛рдВрдЧрд╣рд╛рди рд╡рд╛рдВрдЧ, рдпреВрдВ рддрд╛рдВрдЧ, рдЬреБрддрд╛рдИ рдорд╛, рдРрдиреА рд╡реВ, рд╕рд░рд╡реНрдпрд╛ рдкреЛрдкреБрд░реА, рджрд┐рдорд┐рддреНрд░реЛ рдУрдЦреЛрдирдХреЛ, рдЬреБрдЖрди рдкрд┐рдиреЛ рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[Wav2Vec2Phoneme](https://huggingface.co/docs/transformers/model_doc/wav2vec2_phoneme)** (Facebook AI рд╕реЗ) рд╕рд╛рде рд╡рд╛рд▓рд╛ рдкреЗрдкрд░ [рд╕рд░рд▓ рдФрд░ рдкреНрд░рднрд╛рд╡реА рдЬреАрд░реЛ-рд╢реЙрдЯ рдХреНрд░реЙрд╕-рд▓рд┐рдВрдЧреБрдЕрд▓ рдлреЛрдиреЗрдо рд░рд┐рдХреЙрдЧреНрдирд┐рд╢рди](https:/ /arxiv.org/abs/2109.11680) рдХрд┐рдпрд╛рдирдЯреЛрдВрдЧ рдЬреВ, рдПрд▓реЗрдХреНрд╕реА рдмрд╛рдПрд╡реНрд╕реНрдХреА, рдорд╛рдЗрдХрд▓ рдФрд▓реА рджреНрд╡рд╛рд░рд╛ред
1. **[WavLM](https://huggingface.co/docs/transformers/model_doc/wavlm)** (рдорд╛рдЗрдХреНрд░реЛрд╕реЙрдлреНрдЯ рд░рд┐рд╕рд░реНрдЪ рд╕реЗ) рдкреЗрдкрд░ рдХреЗ рд╕рд╛рде рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЧрдпрд╛ [WavLM: рдлреБрд▓ рд╕реНрдЯреИрдХ рдХреЗ рд▓рд┐рдП рдмрдбрд╝реЗ рдкреИрдорд╛рдиреЗ рдкрд░ рд╕реНрд╡-рдкрд░реНрдпрд╡реЗрдХреНрд╖рд┐рдд рдкреВрд░реНрд╡-рдкреНрд░рд╢рд┐рдХреНрд╖рдг рд╕реНрдкреАрдЪ рдкреНрд░реЛрд╕реЗрд╕рд┐рдВрдЧ] (https://arxiv.org/abs/2110.13900) рд╕рд╛рдирдпреБрдЖрди рдЪреЗрди, рдЪреЗрдВрдЧрдпреА рд╡рд╛рдВрдЧ, рдЭреЗрдВрдЧрдпрд╛рдВрдЧ рдЪреЗрди, рдпреВ рд╡реВ, рд╢реБрдЬреА рд▓рд┐рдпреВ, рдЬрд╝реБрдУ рдЪреЗрди, рдЬрд┐рдиреНрдпреБ рд▓реА, рдирд╛рдУрдпреБрдХреА рдХрд╛рдВрдбрд╛, рддрд╛рдХреБрдпрд╛ рдпреЛрд╢рд┐рдпреЛрдХрд╛, рдЬрд╝рд┐рдУрдВрдЧ рдЬрд┐рдУ, рдЬрд┐рдпрд╛рди рд╡реВ, рд▓реЙрдиреНрдЧ рдЭреЛрдЙ, рд╢реБрдУ рд░реЗрди, рдпрд╛рдирдорд┐рди рдХрд┐рдпрд╛рди, рдпрд╛рдУ рдХрд┐рдпрд╛рди, рдЬрд┐рдпрд╛рди рд╡реВ, рдорд╛рдЗрдХрд▓ рдЬрд╝реЗрдВрдЧ, рдлреБрд░реБ рд╡реЗрдИред
1. **[Whisper](https://huggingface.co/docs/transformers/model_doc/whisper)** (OpenAI рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдХрд╛рдЧрдЬ [рдмрдбрд╝реЗ рдкреИрдорд╛рдиреЗ рдкрд░ рдХрдордЬреЛрд░ рдкрд░реНрдпрд╡реЗрдХреНрд╖рдг рдХреЗ рдорд╛рдзреНрдпрдо рд╕реЗ рдордЬрдмреВрдд рднрд╛рд╖рдг рдкрд╣рдЪрд╛рди](https://cdn. openai.com/papers/whisper.pdf) рдПрд▓реЗрдХ рд░реИрдбрдлреЛрд░реНрдб, рдЬреЛрдВрдЧ рд╡реВрдХ рдХрд┐рдо, рддрд╛рдУ рдЬреВ, рдЧреНрд░реЗрдЧ рдмреНрд░реЙрдХрдореИрди, рдХреНрд░рд┐рд╕реНрдЯреАрди рдореИрдХрд▓реАрд╡реЗ, рдЗрд▓реНрдпрд╛ рд╕реБрддреНрд╕реНрдХреЗрд╡рд░ рджреНрд╡рд╛рд░рд╛ред
1. **[X-CLIP](https://huggingface.co/docs/transformers/model_doc/xclip)** (рдорд╛рдЗрдХреНрд░реЛрд╕реЙрдлреНрдЯ рд░рд┐рд╕рд░реНрдЪ рд╕реЗ) рдХрд╛рдЧрдЬ рдХреЗ рд╕рд╛рде [рдПрдХреНрд╕рдкреИрдВрдбрд┐рдВрдЧ рд▓реИрдВрдЧреНрд╡реЗрдЬ-рдЗрдореЗрдЬ рдкреНрд░реАрдЯреНрд░реЗрдиреНрдб рдореЙрдбрд▓ рдлреЙрд░ рдЬрдирд░рд▓ рд╡реАрдбрд┐рдпреЛ рд░рд┐рдХрдЧреНрдирд┐рд╢рди](https: //arxiv.org/abs/2208.02816) рдмреЛрд▓рд┐рди рдиреА, рд╣реЛрдЙрд╡реЗрди рдкреЗрдВрдЧ, рдорд┐рдВрдЧрд╛рдУ рдЪреЗрди, рд╕реЛрдВрдЧрдпрд╛рдВрдЧ рдЭрд╛рдВрдЧ, рдЧрд╛рдУрдлреЗрдВрдЧ рдореЗрдВрдЧ, рдЬрд┐рдпрд╛рдирд▓реЛрдВрдЧ рдлреВ, рд╢рд┐рдорд┐рдВрдЧ рдЬрд┐рдпрд╛рдВрдЧ, рд╣реИрдмрд┐рди рд▓рд┐рдВрдЧ рджреНрд╡рд╛рд░рд╛ред
2023-03-15 01:49:10 +08:00
1. **[X-MOD](https://huggingface.co/docs/transformers/model_doc/xmod)** (Meta AI рд╕реЗ) Jonas Pfeiffer, Naman Goyal, Xi Lin, Xian Li, James Cross, Sebastian Riedel, Mikel Artetxe. рджреНрд╡рд╛рд░рд╛рдЕрдиреБрд╕рдВрдзрд╛рди рдкрддреНрд░ [Lifting the Curse of Multilinguality by Pre-training Modular Transformers](http://dx.doi.org/10.18653/v1/2022.naacl-main.255) рдХреЗ рд╕рд╛рде рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЧрдпрд╛
1. **[XGLM](https://huggingface.co/docs/transformers/model_doc/xglm)** (From Facebook AI) released with the paper [Few-shot Learning with Multilingual Language Models](https://arxiv.org/abs/2112.10668) by Xi Victoria Lin, Todor Mihaylov, Mikel Artetxe, Tianlu Wang, Shuohui Chen, Daniel Simig, Myle Ott, Naman Goyal, Shruti Bhosale, Jingfei Du, Ramakanth Pasunuru, Sam Shleifer, Punit Singh Koura, Vishrav Chaudhary, Brian O'Horo, Jeff Wang, Luke Zettlemoyer, Zornitsa Kozareva, Mona Diab, Veselin Stoyanov, Xian Li.
1. **[XLM](https://huggingface.co/docs/transformers/model_doc/xlm)** (рдлреЗрд╕рдмреБрдХ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [рдХреНрд░реЙрд╕-рд▓рд┐рдВрдЧреБрдЕрд▓ рд▓реИрдВрдЧреНрд╡реЗрдЬ рдореЙрдбрд▓ рдкреНрд░реАрдЯреНрд░реЗрдирд┐рдВрдЧ] (https://arxiv.org/abs/1901.07291) рдЧрд┐рд▓рд╛рдЙрдо рд▓реИрдореНрдкрд▓ рдФрд░ рдПрд▓реЗрдХреНрд╕рд┐рд╕ рдХреЛрдиреЛ рджреНрд╡рд╛рд░рд╛ред
1. **[XLM-ProphetNet](https://huggingface.co/docs/transformers/model_doc/xlm-prophetnet)** (рдорд╛рдЗрдХреНрд░реЛрд╕реЙрдлреНрдЯ рд░рд┐рд╕рд░реНрдЪ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдХрд╛рдЧрдЬ [ProphetNet: рдкреНрд░реЗрдбрд┐рдХреНрдЯрд┐рдВрдЧ рдлреНрдпреВрдЪрд░ рдПрди-рдЧреНрд░рд╛рдо рдлреЙрд░ рд╕реАрдХреНрд╡реЗрдВрд╕-рдЯреВ- рд╕реАрдХреНрд╡реЗрдВрд╕ рдкреНрд░реА-рдЯреНрд░реЗрдирд┐рдВрдЧ](https://arxiv.org/abs/2001.04063) рдпреВ рдпрд╛рди, рд╡реАрдЬрд╝реЗрди рдХреНрдпреВрдИ, рдпреЗрдпреБрди рдЧреЛрдВрдЧ, рджрдпрд╛рд╣реЗрдВрдЧ рд▓рд┐рдпреВ, рдирд╛рди рдбреБрдЖрди, рдЬрд┐рдЙрд╢реЗрдВрдЧ рдЪреЗрди, рд░реБрдУрдлрд╝реЗрдИ рдЭрд╛рдВрдЧ рдФрд░ рдорд┐рдВрдЧ рдЭреЛрдЙ рджреНрд╡рд╛рд░рд╛ред
1. **[XLM-RoBERTa](https://huggingface.co/docs/transformers/model_doc/xlm-roberta)** (рдлреЗрд╕рдмреБрдХ рдПрдЖрдИ рд╕реЗ), рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [рдЕрдирд╕реБрдкрд░рд╡рд╛рдЗрдЬреНрдб рдХреНрд░реЙрд╕-рд▓рд┐рдВрдЧреБрдЕрд▓ рд░рд┐рдкреНрд░реЗрдЬреЗрдВрдЯреЗрд╢рди рд▓рд░реНрдирд┐рдВрдЧ рдПрдЯ рд╕реНрдХреЗрд▓] (https://arxiv.org/abs/1911.02116) рдПрд▓реЗрдХреНрд╕рд┐рд╕ рдХреЛрдиреНрдпреВ*, рдХрд╛рд░реНрддрд┐рдХреЗрдп рдЦрдВрдбреЗрд▓рд╡рд╛рд▓*, рдирдорди рдЧреЛрдпрд▓, рд╡рд┐рд╢реНрд░рд╡ рдЪреМрдзрд░реА, рдЧрд┐рд▓рд╛рдЙрдо рд╡реЗрдирдЬрд╝реЗрдХ, рдлреНрд░рд╛рдВрд╕рд┐рд╕реНрдХреЛ рдЧреБрдЬрд╝рдореИрди рджреНрд╡рд╛рд░рд╛ , рдПрдбреМрд░реНрдб рдЧреНрд░реЗрд╡, рдорд╛рдпрд▓ рдУрдЯ, рд▓реНрдпреВрдХ рдЬрд╝реЗрдЯрд▓рдореЙрдпрд░ рдФрд░ рд╡реЗрд╕реЗрд▓рд┐рди рд╕реНрдЯреЛрдпрд╛рдиреЛрд╡ рджреНрд╡рд╛рд░рд╛ред
1. **[XLM-RoBERTa-XL](https://huggingface.co/docs/transformers/model_doc/xlm-roberta-xl)** (Facebook AI рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдХрд╛рдЧрдЬ [рдмрд╣реБрднрд╛рд╖реА рдирдХрд╛рдмрдкреЛрд╢ рднрд╛рд╖рд╛ рдХреЗ рд▓рд┐рдП рдмрдбрд╝реЗ рдкреИрдорд╛рдиреЗ рдкрд░ рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░ ] рдореЙрдбрд▓рд┐рдВрдЧ](https://arxiv.org/abs/2105.00572) рдирдорди рдЧреЛрдпрд▓, рдЬрд┐рдВрдЧрдлреЗрдИ рдбреВ, рдорд╛рдпрд▓ рдУрдЯ, рдЧрд┐рд░рд┐ рдЕрдирдВрддрд░рд╛рдорди, рдПрд▓реЗрдХреНрд╕рд┐рд╕ рдХреЛрдиреЛ рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[XLM-V](https://huggingface.co/docs/transformers/model_doc/xlm-v)** (from Meta AI) released with the paper [XLM-V: Overcoming the Vocabulary Bottleneck in Multilingual Masked Language Models](https://arxiv.org/abs/2301.10472) by Davis Liang, Hila Gonen, Yuning Mao, Rui Hou, Naman Goyal, Marjan Ghazvininejad, Luke Zettlemoyer, Madian Khabsa.
1. **[XLNet](https://huggingface.co/docs/transformers/model_doc/xlnet)** (Google/CMU рд╕реЗ) рд╕рд╛рде рд╡рд╛рд▓рд╛ рдкреЗрдкрд░ [XLNet: рдЬрдирд░рд▓рд╛рдЗрдЬреНрдб рдСрдЯреЛрд░реЗрдЧреНрд░реЗрд╕рд┐рд╡ рдкреНрд░реАрдЯреНрд░реЗрдирд┐рдВрдЧ рдлреЙрд░ рд▓реИрдВрдЧреНрд╡реЗрдЬ рдЕрдВрдбрд░рд╕реНрдЯреИрдВрдбрд┐рдВрдЧ](https://arxiv рдЬрд╝реАрд▓рд┐рди рдпрд╛рдВрдЧ*, рдЬрд╝рд┐рд╣рд╛рдВрдЧ рджрд╛рдИ*, рдпрд┐рдорд┐рдВрдЧ рдпрд╛рдВрдЧ, рдЬреИрдо рдХрд╛рд░реНрдмреЛрдиреЗрд▓, рд░реБрд╕реНрд▓рд╛рди рд╕рд▓рд╛рдЦреБрддрджреАрдиреЛрд╡, рдХреНрд╡реЛрдХ рд╡реА. рд▓реЗ тАЛтАЛрджреНрд╡рд╛рд░рд╛ .org/abs/1906.08237)ред
1. **[XLS-R](https://huggingface.co/docs/transformers/model_doc/xls_r)** (Facebook AI рд╕реЗ) рд╕рд╛рде рд╡рд╛рд▓рд╛ рдкреЗрдкрд░ [XLS-R: рд╕реЗрд▓реНрдл рд╕реБрдкрд░рд╡рд╛рдЗрдЬреНрдб рдХреНрд░реЙрд╕-рд▓рд┐рдВрдЧреБрдЕрд▓ рд╕реНрдкреАрдЪ рд░рд┐рдкреНрд░реЗрдЬреЗрдВрдЯреЗрд╢рди рд▓рд░реНрдирд┐рдВрдЧ рдПрдЯ рд╕реНрдХреЗрд▓](https://arxiv.org/abs/2111.09296) рдЕрд░реБрдг рдмрд╛рдмреВ, рдЪрд╛рдВрдЧрд╣рд╛рди рд╡рд╛рдВрдЧ, рдПрдВрдбреНрд░реЛрд╕ рддрдЬрдВрджреНрд░рд╛, рдХреБрд╢рд╛рд▓ рд▓рдЦреЛрдЯрд┐рдпрд╛, рдХрд┐рдпрд╛рдирдЯреЛрдВрдЧ рдЬреВ, рдирдорди рдЧреЛрдпрд▓, рдХреГрддрд┐рдХрд╛ рд╕рд┐рдВрд╣, рдкреИрдЯреНрд░рд┐рдХ рд╡реЙрди рдкреНрд▓реИрдЯрди, рдпрд╛рдерд╛рд░реНрде рд╕рд░рд╛рдл, рдЬреБрдЖрди рдкрд┐рдиреЛ, рдПрд▓реЗрдХреНрд╕реА рдмреЗрд╡рд╕реНрдХреА, рдПрд▓реЗрдХреНрд╕рд┐рд╕ рдХреЛрдиреНрдпреВ, рдорд╛рдЗрдХрд▓ рдФрд▓реА рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[XLSR-Wav2Vec2](https://huggingface.co/docs/transformers/model_doc/xlsr_wav2vec2)** (рдлреЗрд╕рдмреБрдХ рдПрдЖрдИ рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [рдЕрдирд╕реБрдкрд░рд╡рд╛рдЗрдЬреНрдб рдХреНрд░реЙрд╕-рд▓рд┐рдВрдЧреБрдЕрд▓ рд░рд┐рдкреНрд░реЗрдЬреЗрдВрдЯреЗрд╢рди рд▓рд░реНрдирд┐рдВрдЧ рдлреЙрд░ рд╕реНрдкреАрдЪ рд░рд┐рдХрдЧреНрдирд┐рд╢рди] (https://arxiv.org/abs/2006.13979) рдПрд▓реЗрдХреНрд╕рд┐рд╕ рдХреЛрдиреНрдпреВ, рдПрд▓реЗрдХреНрд╕реА рдмреЗрд╡рд╕реНрдХреА, рд░реЛрдирди рдХреЛрд▓реЛрдмрд░реНрдЯ, рдЕрдмреНрджреЗрд▓рд░рд╣рдорд╛рди рдореЛрд╣рдореНрдордж, рдорд╛рдЗрдХрд▓ рдФрд▓реА рджреНрд╡рд╛рд░рд╛ред
1. **[YOLOS](https://huggingface.co/docs/transformers/model_doc/yolos)** (рд╣реБрдЖрдЭреЛрдВрдЧ рдпреВрдирд┐рд╡рд░реНрд╕рд┐рдЯреА рдСрдл рд╕рд╛рдЗрдВрд╕ рдПрдВрдб рдЯреЗрдХреНрдиреЛрд▓реЙрдЬреА рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [рдпреВ рдУрдирд▓реА рд▓реБрдХ рдПрдЯ рд╡рди рд╕реАрдХреНрд╡реЗрдВрд╕: рд░реАрдерд┐рдВрдХрд┐рдВрдЧ рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░ рдЗрди рд╡рд┐рдЬрд╝рди рдереНрд░реВ рдСрдмреНрдЬреЗрдХреНрдЯ рдбрд┐рдЯреЗрдХреНрд╢рди](https://arxiv.org/abs/2106.00666) рдпреБрдХреНрд╕рд┐рди рдлреЗрдВрдЧ, рдмреЗрдирдЪреЗрдВрдЧ рд▓рд┐рдпрд╛рдУ, рдЬрд┐рдВрдЧрдЧреИрдВрдЧ рд╡рд╛рдВрдЧ, рдЬреЗрдорд┐рди рдлреЗрдВрдЧ, рдЬрд┐рдпрд╛рдВрдЧ рдХреНрдпреВрдИ, рд░реБрдИ рд╡реВ, рдЬрд┐рдпрд╛рдирд╡реЗрдИ рдиреАрдпреВ, рд╡реЗрдиреНрдпреВ рд▓рд┐рдпреВ рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. **[YOSO](https://huggingface.co/docs/transformers/model_doc/yoso)** (рд╡рд┐рд╕реНрдХреЙрдиреНрд╕рд┐рди рд╡рд┐рд╢реНрд╡рд╡рд┐рджреНрдпрд╛рд▓рдп - рдореИрдбрд┐рд╕рди рд╕реЗ) рд╕рд╛рде рдореЗрдВ рдкреЗрдкрд░ [рдпреВ рдУрдирд▓реА рд╕реИрдВрдкрд▓ (рд▓рдЧрднрдЧ) рдЬрд╝рд╛рдирдкреЗрдВрдЧ рдЬрд╝реЗрдВрдЧ, рдпреБрдирдпрд╛рдВрдЧ рдЬрд╝рд┐рдУрдВрдЧ рджреНрд╡рд╛рд░рд╛ , рд╕рддреНрдп рдПрди. рд░рд╡рд┐, рд╢реИрд▓реЗрд╢ рдЖрдЪрд╛рд░реНрдп, рдЧреНрд▓реЗрди рдлрдВрдЧ, рд╡рд┐рдХрд╛рд╕ рд╕рд┐рдВрд╣ рджреНрд╡рд╛рд░рд╛ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ред
1. рдПрдХ рдирдП рдореЙрдбрд▓ рдореЗрдВ рдпреЛрдЧрджрд╛рди рджреЗрдирд╛ рдЪрд╛рд╣рддреЗ рд╣реИрдВ? рдирдП рдореЙрдбрд▓ рдЬреЛрдбрд╝рдиреЗ рдореЗрдВ рдЖрдкрдХрд╛ рдорд╛рд░реНрдЧрджрд░реНрд╢рди рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рд╣рдорд╛рд░реЗ рдкрд╛рд╕ рдПрдХ **рд╡рд┐рд╕реНрддреГрдд рдорд╛рд░реНрдЧрджрд░реНрд╢рд┐рдХрд╛ рдФрд░ рдЯреЗрдореНрдкреНрд▓реЗрдЯ** рд╣реИред рдЖрдк рдЙрдиреНрд╣реЗрдВ [`рдЯреЗрдореНрдкрд▓реЗрдЯреНрд╕`](./templates) рдирд┐рд░реНрджреЗрд╢рд┐рдХрд╛ рдореЗрдВ рдкрд╛ рд╕рдХрддреЗ рд╣реИрдВред рдкреАрдЖрд░ рд╢реБрд░реВ рдХрд░рдиреЗ рд╕реЗ рдкрд╣рд▓реЗ [рдпреЛрдЧрджрд╛рди рджрд┐рд╢рд╛рдирд┐рд░реНрджреЗрд╢] (./CONTRIBUTING.md) рджреЗрдЦрдирд╛ рдФрд░ рдЕрдиреБрд░рдХреНрд╖рдХреЛрдВ рд╕реЗ рд╕рдВрдкрд░реНрдХ рдХрд░рдирд╛ рдпрд╛ рдкреНрд░рддрд┐рдХреНрд░рд┐рдпрд╛ рдкреНрд░рд╛рдкреНрдд рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рдПрдХ рдирдпрд╛ рдореБрджреНрджрд╛ рдЦреЛрд▓рдирд╛ рдпрд╛рдж рд░рдЦреЗрдВред
рдпрд╣ рдЬрд╛рдВрдЪрдиреЗ рдХреЗ рд▓рд┐рдП рдХрд┐ рдХреНрдпрд╛ рдХрд┐рд╕реА рдореЙрдбрд▓ рдореЗрдВ рдкрд╣рд▓реЗ рд╕реЗ рд╣реА Flax, PyTorch рдпрд╛ TensorFlow рдХрд╛ рдХрд╛рд░реНрдпрд╛рдиреНрд╡рдпрди рд╣реИ, рдпрд╛ рдпрджрд┐ рдЙрд╕рдХреЗ рдкрд╛рд╕ Tokenizers рд▓рд╛рдЗрдмреНрд░реЗрд░реА рдореЗрдВ рд╕рдВрдмрдВрдзрд┐рдд рдЯреЛрдХрди рд╣реИ, рддреЛ [рдпрд╣ рддрд╛рд▓рд┐рдХрд╛] (https://huggingface.co/ docs/transformers/index#supported) рджреЗрдЦреЗрдВред -рдлреНрд░реЗрдорд╡рд░реНрдХ)ред
рдЗрди рдХрд╛рд░реНрдпрд╛рдиреНрд╡рдпрдиреЛрдВ рдХрд╛ рдкрд░реАрдХреНрд╖рдг рдХрдИ рдбреЗрдЯрд╛рд╕реЗрдЯ рдкрд░ рдХрд┐рдпрд╛ рдЧрдпрд╛ рд╣реИ (рджреЗрдЦреЗрдВ рдХреЗрд╕ рд╕реНрдХреНрд░рд┐рдкреНрдЯ рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрд░реЗрдВ) рдФрд░ рд╡реИрдирд┐рд▓рд╛ рдХрд╛рд░реНрдпрд╛рдиреНрд╡рдпрди рдХреЗ рд▓рд┐рдП рддреБрд▓рдирд╛рддреНрдордХ рд░реВрдк рд╕реЗ рдкреНрд░рджрд░реНрд╢рди рдХрд░рдирд╛ рдЪрд╛рд╣рд┐рдПред рдЖрдк рдЙрдкрдпреЛрдЧ рдХреЗ рдорд╛рдорд▓реЗ рдХреЗ рджрд╕реНрддрд╛рд╡реЗрдЬрд╝ [рдЗрд╕ рдЕрдиреБрднрд╛рдЧ](https://huggingface.co/docs/transformers/examples) рдореЗрдВ рд╡реНрдпрд╡рд╣рд╛рд░ рдХрд╛ рд╡рд┐рд╡рд░рдг рдкрдврд╝ рд╕рдХрддреЗ рд╣реИрдВред
## рдЕрдзрд┐рдХ рд╕рдордЭреЗрдВ
|рдЕрдзреНрдпрд╛рдп | рд╡рд┐рд╡рд░рдг |
|-|-|
| [рджрд╕реНрддрд╛рд╡реЗрдЬрд╝реАрдХрд░рдг](https://huggingface.co/transformers/) | рдкреВрд░рд╛ рдПрдкреАрдЖрдИ рджрд╕реНрддрд╛рд╡реЗрдЬрд╝реАрдХрд░рдг рдФрд░ рдЯреНрдпреВрдЯреЛрд░рд┐рдпрд▓ |
| [рдХрд╛рд░реНрдп рд╕рд╛рд░рд╛рдВрд╢](https://huggingface.co/docs/transformers/task_summary) | рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░ рд╕рдорд░реНрдерд┐рдд рдХрд╛рд░реНрдп |
| [рдкреНрд░реАрдкреНрд░реЛрд╕реЗрд╕рд┐рдВрдЧ рдЯреНрдпреВрдЯреЛрд░рд┐рдпрд▓](https://huggingface.co/docs/transformers/preprocessing) | рдореЙрдбрд▓ рдХреЗ рд▓рд┐рдП рдбреЗрдЯрд╛ рддреИрдпрд╛рд░ рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП `рдЯреЛрдХрдирд╛рдЗрдЬрд╝рд░` рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрд░рдирд╛ |
| [рдкреНрд░рд╢рд┐рдХреНрд╖рдг рдФрд░ рдлрд╛рдЗрди-рдЯреНрдпреВрдирд┐рдВрдЧ](https://huggingface.co/docs/transformers/training) | PyTorch/TensorFlow рдХреЗ рдЯреНрд░реЗрдирд┐рдВрдЧ рд▓реВрдк рдпрд╛ `рдЯреНрд░реЗрдирд░` API рдореЗрдВ рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░ рджреНрд╡рд╛рд░рд╛ рджрд┐рдП рдЧрдП рдореЙрдбрд▓ рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрд░реЗрдВ |
| [рдХреНрд╡рд┐рдХ рд╕реНрдЯрд╛рд░реНрдЯ: рдЯреНрд╡реАрдХрд┐рдВрдЧ рдПрдВрдб рдпреВрдЬрд╝ рдХреЗрд╕ рд╕реНрдХреНрд░рд┐рдкреНрдЯреНрд╕](https://github.com/huggingface/transformers/tree/main/examples) | рд╡рд┐рднрд┐рдиреНрди рдХрд╛рд░реНрдпреЛрдВ рдХреЗ рд▓рд┐рдП рдХреЗрд╕ рд╕реНрдХреНрд░рд┐рдкреНрдЯ рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрд░реЗрдВ |
| [рдореЙрдбрд▓ рд╕рд╛рдЭрд╛ рдХрд░рдирд╛ рдФрд░ рдЕрдкрд▓реЛрдб рдХрд░рдирд╛](https://huggingface.co/docs/transformers/model_sharing) | рд╕рдореБрджрд╛рдп рдХреЗ рд╕рд╛рде рдЕрдкрдиреЗ рдлрд╛рдЗрди рдЯреВрдирдб рдореЙрдбрд▓ рдЕрдкрд▓реЛрдб рдФрд░ рд╕рд╛рдЭрд╛ рдХрд░реЗрдВ |
| [рдорд╛рдЗрдЧреНрд░реЗрд╢рди](https://huggingface.co/docs/transformers/migration) | `рдкрд╛рдЗрдЯреЛрд░рдЪ-рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░реНрд╕` рдпрд╛ `рдкрд╛рдЗрдЯреЛрд░рдЪ-рдкреНрд░реАрдЯреНрд░реЗрдирдб-рдмрд░реНрдЯ` рд╕реЗ рдЯреНрд░рд╛рдВрд╕рдлреЙрд░реНрдорд░ рдореЗрдВ рдорд╛рдЗрдЧреНрд░реЗрдЯ рдХрд░рдирд╛ |
## рдЙрджреНрдзрд░рдг
рд╣рдордиреЗ рдЖрдзрд┐рдХрд╛рд░рд┐рдХ рддреМрд░ рдкрд░ рдЗрд╕ рд▓рд╛рдЗрдмреНрд░реЗрд░реА рдХрд╛ [рдкреЗрдкрд░](https://www.aclweb.org/anthology/2020.emnlp-demos.6/) рдкреНрд░рдХрд╛рд╢рд┐рдд рдХрд┐рдпрд╛ рд╣реИ, рдЕрдЧрд░ рдЖрдк рдЯреНрд░рд╛рдиреНрд╕рдлрд╝реЙрд░реНрдорд░реНрд╕ рд▓рд╛рдЗрдмреНрд░реЗрд░реА рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрд░рддреЗ рд╣реИрдВ, рддреЛ рдХреГрдкрдпрд╛ рдЙрджреНрдзреГрдд рдХрд░реЗрдВ:
```bibtex
@inproceedings{wolf-etal-2020-transformers,
title = "Transformers: State-of-the-Art Natural Language Processing",
author = "Thomas Wolf and Lysandre Debut and Victor Sanh and Julien Chaumond and Clement Delangue and Anthony Moi and Pierric Cistac and Tim Rault and R├йmi Louf and Morgan Funtowicz and Joe Davison and Sam Shleifer and Patrick von Platen and Clara Ma and Yacine Jernite and Julien Plu and Canwen Xu and Teven Le Scao and Sylvain Gugger and Mariama Drame and Quentin Lhoest and Alexander M. Rush",
booktitle = "Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing: System Demonstrations",
month = oct,
year = "2020",
address = "Online",
publisher = "Association for Computational Linguistics",
url = "https://www.aclweb.org/anthology/2020.emnlp-demos.6",
pages = "38--45"
}
```