Моделі CBOW та Skip-gram
Базове розуміння нейронних мереж рекомендується для цього розділу. Якщо ви не знайомі з цією темою, радимо ознайомитися з цим курсом:
Обидві архітектури, CBoW та Skip-gram, навчають векторні подання слів за допомогою нейронної мережі, яка складається з наступних шарів:
- вхідний шар;
- один прихований шар;
- вихідний шар.
Матриця ваг між вхідним і прихованим шарами, позначена як W1 або E, виконує роль матриці векторних подань. Кожен рядок цієї матриці відповідає вектору подання для відповідного слова, де i-ий рядок відповідає i-ому слову у словнику.
Ця матриця містить V (розмір словника) векторів подань, кожен з яких має розмір N, який ми задаємо. Множення транспонованої цієї матриці (матриця N×V) на one-hot вектор (V×1) дозволяє отримати подання конкретного слова, утворюючи вектор розміром N×1.
Друга матриця ваг, між прихованим і вихідним шарами, має розмір N×V. Множення транспонованої цієї матриці (матриця V×N) на вектор прихованого шару розміром N×1 дає вектор розміром V×1.
CBoW
Розгляньте приклад використання моделі CBoW:
Спочатку транспонована матриця ембеддінгів множиться на one-hot вектори контекстних слів для отримання їх ембеддінгів. Ці ембеддінги потім сумуються або усереднюються залежно від реалізації, щоб утворити один вектор. Цей вектор множиться на матрицю W2, у результаті чого отримується вектор розміром V×1.
Нарешті, цей вектор проходить через активаційну функцію softmax, перетворюючись на розподіл ймовірностей, де кожен елемент відображає ймовірність того, що відповідне слово словника є цільовим словом.
Після цього обчислюється функція втрат, і обидві матриці ваг оновлюються для мінімізації цієї втрати. Ідеально, ймовірність цільового слова має бути близькою до 1, тоді як ймовірності для всіх інших слів мають наближатися до нуля. Цей процес повторюється для кожної комбінації цільового слова та його контекстних слів.
Після обробки всіх комбінацій завершується епоха. Зазвичай нейронна мережа навчається протягом кількох епох для забезпечення точного навчання. Нарешті, рядки отриманої матриці векторних представлень можна використовувати як векторні представлення слів. Кожен рядок відповідає векторному представленню певного слова у словнику, ефективно відображаючи його семантичні властивості в межах навченої моделі.
Skip-gram
Розглянемо тепер модель skip-gram:
Як видно, процес здебільшого подібний до CBoW. Він починається з отримання векторного представлення цільового слова, яке потім використовується у прихованому шарі. Далі формується вектор розміром V×1 на вихідному шарі. Цей вектор, отриманий шляхом множення векторного представлення цільового слова на матрицю ваг вихідного шару, потім перетворюється за допомогою активаційної функції softmax у вектор ймовірностей.
Хоча цей отриманий вектор ймовірностей є однаковим для всіх контекстних слів, пов’язаних з одним цільовим словом під час одного кроку навчання, втрата для кожного контекстного слова обчислюється окремо.
Втрати для кожного контекстного слова підсумовуються, і матриці ваг оновлюються відповідно на кожній ітерації для мінімізації загальної втрати. Після завершення заданої кількості епох матриця ембеддінгів може бути використана для отримання векторних представлень слів.
На практиці, особливо при великих словниках, функція softmax може бути надто обчислювально затратною. Тому часто використовуються апроксимації, такі як негативне семплювання, щоб зробити обчислення більш ефективними.
1. Заповніть пропуски
2. Що представляє перша матриця ваг W1 у нейронній мережі?
Дякуємо за ваш відгук!
Запитати АІ
Запитати АІ
Запитайте про що завгодно або спробуйте одне із запропонованих запитань, щоб почати наш чат
Awesome!
Completion rate improved to 3.45
Моделі CBOW та Skip-gram
Свайпніть щоб показати меню
Базове розуміння нейронних мереж рекомендується для цього розділу. Якщо ви не знайомі з цією темою, радимо ознайомитися з цим курсом:
Обидві архітектури, CBoW та Skip-gram, навчають векторні подання слів за допомогою нейронної мережі, яка складається з наступних шарів:
- вхідний шар;
- один прихований шар;
- вихідний шар.
Матриця ваг між вхідним і прихованим шарами, позначена як W1 або E, виконує роль матриці векторних подань. Кожен рядок цієї матриці відповідає вектору подання для відповідного слова, де i-ий рядок відповідає i-ому слову у словнику.
Ця матриця містить V (розмір словника) векторів подань, кожен з яких має розмір N, який ми задаємо. Множення транспонованої цієї матриці (матриця N×V) на one-hot вектор (V×1) дозволяє отримати подання конкретного слова, утворюючи вектор розміром N×1.
Друга матриця ваг, між прихованим і вихідним шарами, має розмір N×V. Множення транспонованої цієї матриці (матриця V×N) на вектор прихованого шару розміром N×1 дає вектор розміром V×1.
CBoW
Розгляньте приклад використання моделі CBoW:
Спочатку транспонована матриця ембеддінгів множиться на one-hot вектори контекстних слів для отримання їх ембеддінгів. Ці ембеддінги потім сумуються або усереднюються залежно від реалізації, щоб утворити один вектор. Цей вектор множиться на матрицю W2, у результаті чого отримується вектор розміром V×1.
Нарешті, цей вектор проходить через активаційну функцію softmax, перетворюючись на розподіл ймовірностей, де кожен елемент відображає ймовірність того, що відповідне слово словника є цільовим словом.
Після цього обчислюється функція втрат, і обидві матриці ваг оновлюються для мінімізації цієї втрати. Ідеально, ймовірність цільового слова має бути близькою до 1, тоді як ймовірності для всіх інших слів мають наближатися до нуля. Цей процес повторюється для кожної комбінації цільового слова та його контекстних слів.
Після обробки всіх комбінацій завершується епоха. Зазвичай нейронна мережа навчається протягом кількох епох для забезпечення точного навчання. Нарешті, рядки отриманої матриці векторних представлень можна використовувати як векторні представлення слів. Кожен рядок відповідає векторному представленню певного слова у словнику, ефективно відображаючи його семантичні властивості в межах навченої моделі.
Skip-gram
Розглянемо тепер модель skip-gram:
Як видно, процес здебільшого подібний до CBoW. Він починається з отримання векторного представлення цільового слова, яке потім використовується у прихованому шарі. Далі формується вектор розміром V×1 на вихідному шарі. Цей вектор, отриманий шляхом множення векторного представлення цільового слова на матрицю ваг вихідного шару, потім перетворюється за допомогою активаційної функції softmax у вектор ймовірностей.
Хоча цей отриманий вектор ймовірностей є однаковим для всіх контекстних слів, пов’язаних з одним цільовим словом під час одного кроку навчання, втрата для кожного контекстного слова обчислюється окремо.
Втрати для кожного контекстного слова підсумовуються, і матриці ваг оновлюються відповідно на кожній ітерації для мінімізації загальної втрати. Після завершення заданої кількості епох матриця ембеддінгів може бути використана для отримання векторних представлень слів.
На практиці, особливо при великих словниках, функція softmax може бути надто обчислювально затратною. Тому часто використовуються апроксимації, такі як негативне семплювання, щоб зробити обчислення більш ефективними.
1. Заповніть пропуски
2. Що представляє перша матриця ваг W1 у нейронній мережі?
Дякуємо за ваш відгук!