Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Вивчайте Багатокрокове Зворотне Поширення | Більш Просунуті Концепції
Practice
Projects
Quizzes & Challenges
Quizzes
Challenges
/
Основи PyTorch

bookБагатокрокове Зворотне Поширення

Як і Tensorflow, PyTorch також дозволяє створювати більш складні обчислювальні графи з використанням декількох проміжних тензорів.

12345678910111213
import torch # Create a 2D tensor with gradient tracking x = torch.tensor([[1.0, 2.0, 3.0], [3.0, 2.0, 1.0]], requires_grad=True) # Define intermediate layers y = 6 * x + 3 z = 10 * y ** 2 # Compute the mean of the final output output_mean = z.mean() print(f"Output: {output_mean}") # Perform backpropagation output_mean.backward() # Print the gradient of x print("Gradient of x:\n", x.grad)
copy

Градієнт output_mean відносно x обчислюється за допомогою правила ланцюга. Результат показує, наскільки невелика зміна кожного елемента x впливає на output_mean.

Вимкнення відстеження градієнтів

У деяких випадках може виникнути потреба вимкнути відстеження градієнтів для економії пам'яті та обчислювальних ресурсів. Оскільки requires_grad=False є поведінкою за замовчуванням, можна просто створити тензор без зазначення цього параметра:

x = torch.tensor([[1.0, 2.0, 3.0], [3.0, 2.0, 1.0]])
Завдання

Swipe to start coding

Вам доручено побудувати просту нейронну мережу в PyTorch. Ваша мета — обчислити градієнт функції втрат відносно матриці ваг.

  1. Визначте випадкову матрицю ваг (тензор) W розмірності 1x3, ініціалізовану значеннями з рівномірного розподілу на [0, 1], з увімкненим відстеженням градієнта.
  2. Створіть вхідну матрицю (тензор) X на основі цього списку: [[1.0, 2.0], [3.0, 4.0], [5.0, 6.0]].
  3. Виконайте матричне множення між W та X для обчислення Y.
  4. Обчисліть середньоквадратичну помилку (MSE): loss = mean((Y - Ytarget)2).
  5. Обчисліть градієнт функції втрат (loss) відносно W за допомогою зворотного поширення помилки.
  6. Виведіть обчислений градієнт W.

Рішення

Все було зрозуміло?

Як ми можемо покращити це?

Дякуємо за ваш відгук!

Секція 2. Розділ 2
single

single

Запитати АІ

expand

Запитати АІ

ChatGPT

Запитайте про що завгодно або спробуйте одне із запропонованих запитань, щоб почати наш чат

close

bookБагатокрокове Зворотне Поширення

Свайпніть щоб показати меню

Як і Tensorflow, PyTorch також дозволяє створювати більш складні обчислювальні графи з використанням декількох проміжних тензорів.

12345678910111213
import torch # Create a 2D tensor with gradient tracking x = torch.tensor([[1.0, 2.0, 3.0], [3.0, 2.0, 1.0]], requires_grad=True) # Define intermediate layers y = 6 * x + 3 z = 10 * y ** 2 # Compute the mean of the final output output_mean = z.mean() print(f"Output: {output_mean}") # Perform backpropagation output_mean.backward() # Print the gradient of x print("Gradient of x:\n", x.grad)
copy

Градієнт output_mean відносно x обчислюється за допомогою правила ланцюга. Результат показує, наскільки невелика зміна кожного елемента x впливає на output_mean.

Вимкнення відстеження градієнтів

У деяких випадках може виникнути потреба вимкнути відстеження градієнтів для економії пам'яті та обчислювальних ресурсів. Оскільки requires_grad=False є поведінкою за замовчуванням, можна просто створити тензор без зазначення цього параметра:

x = torch.tensor([[1.0, 2.0, 3.0], [3.0, 2.0, 1.0]])
Завдання

Swipe to start coding

Вам доручено побудувати просту нейронну мережу в PyTorch. Ваша мета — обчислити градієнт функції втрат відносно матриці ваг.

  1. Визначте випадкову матрицю ваг (тензор) W розмірності 1x3, ініціалізовану значеннями з рівномірного розподілу на [0, 1], з увімкненим відстеженням градієнта.
  2. Створіть вхідну матрицю (тензор) X на основі цього списку: [[1.0, 2.0], [3.0, 4.0], [5.0, 6.0]].
  3. Виконайте матричне множення між W та X для обчислення Y.
  4. Обчисліть середньоквадратичну помилку (MSE): loss = mean((Y - Ytarget)2).
  5. Обчисліть градієнт функції втрат (loss) відносно W за допомогою зворотного поширення помилки.
  6. Виведіть обчислений градієнт W.

Рішення

Switch to desktopПерейдіть на комп'ютер для реальної практикиПродовжуйте з того місця, де ви зупинились, використовуючи один з наведених нижче варіантів
Все було зрозуміло?

Як ми можемо покращити це?

Дякуємо за ваш відгук!

Секція 2. Розділ 2
single

single

some-alt