Quiz: Data Preparation and Tokenization
メニューを表示するにはスワイプしてください
1. Which of the following best describes the purpose of tokenization in transformer models?
2. What is the role of an attention mask in transformer-based models?
3. Why is it important to split your dataset into training, validation, and test sets when preparing data for fine-tuning?
4. When using a tokenizer from a pre-trained transformer model, what is a common output besides input IDs?
5. Which statement about padding is correct when batching sequences for transformers?
すべて明確でしたか?
フィードバックありがとうございます!
セクション 2. 章 5
AIに質問する
AIに質問する
何でも質問するか、提案された質問の1つを試してチャットを始めてください
セクション 2. 章 5