Quiz: Data Preparation and Tokenization
Свайпніть щоб показати меню
1. Which of the following best describes the purpose of tokenization in transformer models?
2. What is the role of an attention mask in transformer-based models?
3. Why is it important to split your dataset into training, validation, and test sets when preparing data for fine-tuning?
4. When using a tokenizer from a pre-trained transformer model, what is a common output besides input IDs?
5. Which statement about padding is correct when batching sequences for transformers?
Все було зрозуміло?
Дякуємо за ваш відгук!
Секція 2. Розділ 5
Запитати АІ
Запитати АІ
Запитайте про що завгодно або спробуйте одне із запропонованих запитань, щоб почати наш чат
Секція 2. Розділ 5