Transformers documentation

Community

You are viewing v4.40.2 version. A newer version v4.46.3 is available.
Hugging Face's logo
Join the Hugging Face community

and get access to the augmented documentation experience

to get started

Community

このページは、コミュニティによって開発された🤗 Transformersに関するリソースをまとめたものです。

Community resources:

リソース 説明 作者
Hugging Face Transformers Glossary Flashcards Transformers Docs Glossaryに基づいたフラッシュカードセットです。このセットは、長期の知識定着を特に考慮して設計されたオープンソースのクロスプラットフォームアプリであるAnkiを使用して簡単に学習/復習できる形式になっています。フラッシュカードの使用方法に関する紹介ビデオはこちらをご覧ください。 Darigov Research

Community notebooks:

ノートブック 説明 著者
事前学習済みのTransformerを微調整して歌詞を生成 GPT-2モデルを微調整してお気に入りのアーティストのスタイルで歌詞を生成する方法 Aleksey Korshuk Colabで開く
Tensorflow 2でT5をトレーニング Tensorflow 2を使用して任意のタスクに対してT5をトレーニングする方法。このノートブックはTensorflow 2を使用してSQUADで実装された質問と回答タスクを示しています。 Muhammad Harris Colabで開く
TPUでT5をトレーニング TransformersとNlpを使用してSQUADでT5をトレーニングする方法 Suraj Patil Colabで開く
分類と多肢選択のためにT5を微調整 PyTorch Lightningを使用してテキスト対テキスト形式でT5を分類と多肢選択タスクに微調整する方法 Suraj Patil Colabで開く
新しいデータセットと言語でDialoGPTを微調整 DialoGPTモデルを新しいデータセットでオープンダイアログ会話用の微調整する方法 Nathan Cooper Colabで開く
Reformerを使用した長いシーケンスモデリング Reformerを使用して500,000トークンまでのシーケンスをトレーニングする方法 Patrick von Platen Colabで開く
要約のためにBARTを微調整 Blurrを使用して要約のためにBARTを微調整する方法 Wayde Gilliam Colabで開く
事前学習済みのTransformerを微調整して誰かのツイートを生成 GPT-2モデルを微調整してお気に入りのTwitterアカウントのスタイルでツイートを生成する方法 Boris Dayma Colabで開く
🤗 Hugging FaceモデルをWeights & Biasesで最適化 Hugging FaceとWeights & Biasesの統合を示す完全なチュートリアル Boris Dayma Colabで開く
Longformerの事前学習 既存の事前学習済みモデルの「長い」バージョンを構築する方法 Iz Beltagy Colabで開く
QAタスクのためにLongformerを微調整 QAタスクのためにLongformerモデルを微調整する方法 Suraj Patil Colabで開く
🤗nlpを使用したモデルの評価 nlpを使用してTriviaQAでLongformerを評価する方法 Patrick von Platen Colabで開く
感情スパン抽出のためにT5を微調整 PyTorch Lightningを使用して感情スパン抽出のためにT5を微調整する方法 Lorenzo Ampil Colabで開く
DistilBertをマルチクラス分類にファインチューニング PyTorchを使用してDistilBertをマルチクラス分類にファインチューニングする方法 Abhishek Kumar Mishra Open In Colab
BERTをマルチラベル分類にファインチューニング PyTorchを使用してBERTをマルチラベル分類にファインチューニングする方法 Abhishek Kumar Mishra Open In Colab
T5を要約にファインチューニング PyTorchを使用してT5を要約にファインチューニングし、WandBで実験をトラッキングする方法 Abhishek Kumar Mishra Open In Colab
ダイナミックパディング/バケッティングを使用してTransformersのファインチューニングを高速化 ダイナミックパディング/バケッティングを使用してファインチューニングを2倍高速化する方法 Michael Benesty Open In Colab
マスク言語モデリングのためのReformerの事前学習 双方向セルフアテンションレイヤーを備えたReformerモデルのトレーニング方法 Patrick von Platen Open In Colab
Sci-BERTを拡張してファインチューニング AllenAIのCORDデータセットで事前学習済みのSciBERTモデルの語彙を拡張し、パイプライン化する方法 Tanmay Thakur Open In Colab
Trainer APIを使用してBlenderBotSmallを要約のためにファインチューニング カスタムデータセットでBlenderBotSmallを要約のためにファインチューニングする方法、Trainer APIを使用 Tanmay Thakur Open In Colab
ElectraをファインチューニングしてCaptum Integrated Gradientsで解釈 Electraを感情分析のためにファインチューニングし、Captum Integrated Gradientsで予測を解釈する方法 Eliza Szczechla Open In Colab
Trainerクラスを使用して非英語のGPT-2モデルをファインチューニング Trainerクラスを使用して非英語のGPT-2モデルをファインチューニングする方法 Philipp Schmid Open In Colab
DistilBERTモデルをマルチラベル分類タスクのためにファインチューニング DistilBERTモデルをマルチラベル分類タスクのためにファインチューニングする方法 Dhaval Taunk Open In Colab
ALBERTを文ペア分類タスクのためにファインチューニング ALBERTモデルまたは他のBERTベースのモデルを文ペア分類タスクのためにファインチューニングする方法 Nadir El Manouzi Open In Colab
RoBERTaを感情分析のためにファインチューニング RoBERTaモデルを感情分析のためにファインチューニングする方法 Dhaval Taunk Open In Colab
質問生成モデルの評価 seq2seqトランスフォーマーモデルによって生成された質問の回答の正確さを評価する方法 Pascal Zoleko Open In Colab
DistilBERTとTensorflowを使用してテキストを分類 TensorFlowでテキスト分類のためにDistilBERTをファインチューニングする方法 Peter Bayerle Open In Colab
CNN/Dailymailでのエンコーダーデコーダー要約にBERTを活用 google-bert/bert-base-uncased チェックポイントを使用してCNN/Dailymailの要約のために EncoderDecoderModel をウォームスタートする方法 Patrick von Platen Open In Colab
BBC XSumでのエンコーダーデコーダー要約にRoBERTaを活用 FacebookAI/roberta-base チェックポイントを使用してBBC/XSumの要約のための共有 EncoderDecoderModel をウォームスタートする方法 Patrick von Platen Open In Colab
TAPASをシーケンシャル質問応答(SQA)でファインチューニング シーケンシャル質問応答(SQA)データセットで tapas-base チェックポイントを使用して TapasForQuestionAnswering をファインチューニングする方法 Niels Rogge Open In Colab
TabFactでTAPASを評価 tapas-base-finetuned-tabfact チェックポイントを使用してファインチューニングされた TapasForSequenceClassification を評価する方法、🤗 datasets と 🤗 transformers ライブラリを組み合わせて使用 Niels Rogge Open In Colab
翻訳のためのmBARTをファインチューニング Seq2SeqTrainerを使用してHindiからEnglishへの翻訳のためにmBARTをファインチューニングする方法 Vasudev Gupta Open In Colab
FUNSD(フォーム理解データセット)でLayoutLMをファインチューニング スキャンされたドキュメントからの情報抽出のためにFUNSDデータセットで LayoutLMForTokenClassification をファインチューニングする方法 Niels Rogge Open In Colab
DistilGPT2のファインチューニングとテキスト生成 DistilGPT2のファインチューニングとテキスト生成方法 Aakash Tripathi Colabで開く
最大8KトークンでのLEDのファインチューニング ロングレンジ要約のためのpubmedでLEDをファインチューニングする方法 Patrick von Platen Colabで開く
ArxivでのLEDの評価 ロングレンジ要約のためのLEDの効果的な評価方法 Patrick von Platen Colabで開く
RVL-CDIP(文書画像分類データセット)でのLayoutLMのファインチューニング スキャンされた文書の分類のためのRVL-CDIPデータセットでLayoutLMForSequenceClassificationをファインチューニングする方法 Niels Rogge Colabで開く
Wav2Vec2 CTCデコーディングとGPT2の調整 言語モデルの調整を伴うCTCシーケンスのデコーディング方法 Eric Lam Colabで開く
Trainerクラスを使用した2言語の要約用にBARTをファインチューニング トレーナークラスを使用して2つの言語での要約用にBARTをファインチューニングする方法 Eliza Szczechla Colabで開く
PubMedデータセットでBigBirdの評価 Trivia QAの長いドキュメント質問応答でBigBirdの評価方法 Patrick von Platen Colabで開く
Wav2Vec2を使用してビデオの字幕を作成する Wav2Vecでオーディオを転記して任意のビデオからYouTubeの字幕を作成する方法 Niklas Muennighoff Colabで開く
PyTorch Lightningを使用したCIFAR-10でのVision Transformerのファインチューニング HuggingFace Transformers、Datasets、およびPyTorch Lightningを使用してCIFAR-10でVision Transformer(ViT)をファインチューニングする方法 Niels Rogge Colabで開く
🤗 Trainerを使用したCIFAR-10でのVision Transformerのファインチューニング HuggingFace Transformers、Datasets、および🤗 Trainerを使用してCIFAR-10でVision Transformer(ViT)をファインチューニングする方法 Niels Rogge Colabで開く
Open Entity、エンティティタイピングデータセットでLUKEの評価 Open EntityデータセットでLukeForEntityClassificationの評価方法 Ikuya Yamada Colabで開く
TACRED、関係抽出データセットでLUKEの評価 TACREDデータセットでLukeForEntityPairClassificationの評価方法 Ikuya Yamada Colabで開く
CoNLL-2003、重要なNERベンチマークでLUKEの評価 CoNLL-2003データセットでLukeForEntitySpanClassificationの評価方法 Ikuya Yamada Colabで開く
PubMedデータセットでBigBird-Pegasusの評価 PubMedデータセットでBigBirdPegasusForConditionalGenerationの評価方法 Vasudev Gupta Colabで開く
Wav2Vec2を使用したスピーチエモーション分類 MEGAデータセットでの感情分類のための事前学習済みWav2Vec2モデルの利用方法 Mehrdad Farahani Colabで開く
DETRを使用して画像内のオブジェクトを検出する トレーニング済みDetrForObjectDetectionモデルを使用して画像内のオブジェクトを検出し、注意を可視化する方法 Niels Rogge Colabで開く
カスタムオブジェクト検出データセットでDETRをファインチューニングする カスタムオブジェクト検出データセットでDetrForObjectDetectionをファインチューニングする方法 Niels Rogge Colabで開く
Named Entity RecognitionのためにT5をファインチューニング Named Entity RecognitionタスクでT5をファインチューニングする方法 Ogundepo Odunayo Colabで開く
< > Update on GitHub