Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Вивчайте Багатокрокове Зворотне Поширення | Більш Просунуті Концепції
Основи PyTorch

bookБагатокрокове Зворотне Поширення

Як і Tensorflow, PyTorch також дозволяє створювати складніші обчислювальні графи з використанням декількох проміжних тензорів.

12345678910111213
import torch # Create a 2D tensor with gradient tracking x = torch.tensor([[1.0, 2.0, 3.0], [3.0, 2.0, 1.0]], requires_grad=True) # Define intermediate layers y = 6 * x + 3 z = 10 * y ** 2 # Compute the mean of the final output output_mean = z.mean() print(f"Output: {output_mean}") # Perform backpropagation output_mean.backward() # Print the gradient of x print("Gradient of x:\n", x.grad)
copy

Градієнт output_mean відносно x обчислюється за допомогою правила ланцюга. Результат показує, наскільки незначна зміна кожного елемента x впливає на output_mean.

Вимкнення відстеження градієнтів

У деяких випадках може виникнути потреба вимкнути відстеження градієнтів для економії пам'яті та обчислювальних ресурсів. Оскільки requires_grad=False є поведінкою за замовчуванням, можна просто створити тензор без вказування цього параметра:

x = torch.tensor([[1.0, 2.0, 3.0], [3.0, 2.0, 1.0]])
Завдання

Swipe to start coding

Вам доручено побудувати просту нейронну мережу у PyTorch. Мета — обчислити градієнт функції втрат відносно матриці ваг.

  1. Визначте випадкову матрицю ваг (тензор) W розмірності 1x3, ініціалізовану значеннями з рівномірного розподілу на [0, 1], з увімкненим відстеженням градієнтів.
  2. Створіть вхідну матрицю (тензор) X на основі цього списку: [[1.0, 2.0], [3.0, 4.0], [5.0, 6.0]].
  3. Виконайте матричне множення між W та X для обчислення Y.
  4. Обчисліть середньоквадратичну помилку (MSE): loss = mean((Y - Ytarget)2).
  5. Обчисліть градієнт функції втрат (loss) відносно W за допомогою зворотного поширення помилки.
  6. Виведіть обчислений градієнт W.

Рішення

Все було зрозуміло?

Як ми можемо покращити це?

Дякуємо за ваш відгук!

Секція 2. Розділ 2
single

single

Запитати АІ

expand

Запитати АІ

ChatGPT

Запитайте про що завгодно або спробуйте одне із запропонованих запитань, щоб почати наш чат

close

Awesome!

Completion rate improved to 5

bookБагатокрокове Зворотне Поширення

Свайпніть щоб показати меню

Як і Tensorflow, PyTorch також дозволяє створювати складніші обчислювальні графи з використанням декількох проміжних тензорів.

12345678910111213
import torch # Create a 2D tensor with gradient tracking x = torch.tensor([[1.0, 2.0, 3.0], [3.0, 2.0, 1.0]], requires_grad=True) # Define intermediate layers y = 6 * x + 3 z = 10 * y ** 2 # Compute the mean of the final output output_mean = z.mean() print(f"Output: {output_mean}") # Perform backpropagation output_mean.backward() # Print the gradient of x print("Gradient of x:\n", x.grad)
copy

Градієнт output_mean відносно x обчислюється за допомогою правила ланцюга. Результат показує, наскільки незначна зміна кожного елемента x впливає на output_mean.

Вимкнення відстеження градієнтів

У деяких випадках може виникнути потреба вимкнути відстеження градієнтів для економії пам'яті та обчислювальних ресурсів. Оскільки requires_grad=False є поведінкою за замовчуванням, можна просто створити тензор без вказування цього параметра:

x = torch.tensor([[1.0, 2.0, 3.0], [3.0, 2.0, 1.0]])
Завдання

Swipe to start coding

Вам доручено побудувати просту нейронну мережу у PyTorch. Мета — обчислити градієнт функції втрат відносно матриці ваг.

  1. Визначте випадкову матрицю ваг (тензор) W розмірності 1x3, ініціалізовану значеннями з рівномірного розподілу на [0, 1], з увімкненим відстеженням градієнтів.
  2. Створіть вхідну матрицю (тензор) X на основі цього списку: [[1.0, 2.0], [3.0, 4.0], [5.0, 6.0]].
  3. Виконайте матричне множення між W та X для обчислення Y.
  4. Обчисліть середньоквадратичну помилку (MSE): loss = mean((Y - Ytarget)2).
  5. Обчисліть градієнт функції втрат (loss) відносно W за допомогою зворотного поширення помилки.
  6. Виведіть обчислений градієнт W.

Рішення

Switch to desktopПерейдіть на комп'ютер для реальної практикиПродовжуйте з того місця, де ви зупинились, використовуючи один з наведених нижче варіантів
Все було зрозуміло?

Як ми можемо покращити це?

Дякуємо за ваш відгук!

close

Awesome!

Completion rate improved to 5
Секція 2. Розділ 2
single

single

some-alt