Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Leer Wiskundige Bewerkingen met Tensors | Pytorch Introductie
PyTorch Essentials

bookWiskundige Bewerkingen met Tensors

Elementgewijze bewerkingen

Elementgewijze bewerkingen worden op elk element in de tensor individueel toegepast. Deze bewerkingen, zoals optellen, aftrekken en delen, werken vergelijkbaar met hoe ze in NumPy functioneren:

123456789101112131415
import torch a = torch.tensor([1, 2, 3]) b = torch.tensor([4, 5, 6]) # Element-wise addition addition_result = a + b print(f"Addition: {addition_result}") # Element-wise subtraction subtraction_result = a - b print(f"Subtraction: {subtraction_result}") # Element-wise multiplication multiplication_result = a * b print(f"Multiplication: {multiplication_result}") # Element-wise division division_result = a / b print(f"Division: {division_result}")
copy

Matrixbewerkingen

PyTorch ondersteunt ook matrixvermenigvuldiging en dotproduct, die worden uitgevoerd met de functie torch.matmul():

123456
import torch x = torch.tensor([[1, 2], [3, 4]]) y = torch.tensor([[5, 6], [7, 8]]) # Matrix multiplication z = torch.matmul(x, y) print(f"Matrix multiplication: {z}")
copy

Het @-operator kan ook worden gebruikt voor matrixvermenigvuldiging:

12345
import torch x = torch.tensor([[1, 2], [3, 4]]) y = torch.tensor([[5, 6], [7, 8]]) z = x @ y print(f"Matrix Multiplication with @: {z}")
copy

Aggregatiebewerkingen

Aggregatiebewerkingen berekenen samenvattende statistieken van tensors, zoals som, gemiddelde, maximum- en minimumwaarden, die kunnen worden berekend met hun respectievelijke methoden.

12345678910
import torch tensor = torch.tensor([[1, 2, 3], [4, 5, 6]]).float() # Sum of all elements print(f"Sum: {tensor.sum()}") # Mean of all elements print(f"Mean: {tensor.mean()}") # Maximum value print(f"Max: {tensor.max()}") # Minimum value print(f"Min: {tensor.min()}")
copy

Aggregatiemethoden hebben ook twee optionele parameters:

  • dim: specificeert de dimensie (vergelijkbaar met axis in NumPy) waarlangs de bewerking wordt toegepast. Standaard, als dim niet is opgegeven, wordt de bewerking toegepast op alle elementen van de tensor;
  • keepdim: een booleaanse vlag (False standaard). Indien ingesteld op True, wordt de gereduceerde dimensie behouden als een dimensie van grootte 1 in de uitvoer, waarbij het oorspronkelijke aantal dimensies behouden blijft.
12345678
import torch tensor = torch.tensor([[1, 2, 3], [4, 5, 6]]) # Aggregation operations along specific dimensions print(f"Sum along rows (dim=1): {tensor.sum(dim=1)}") print(f"Sum along columns (dim=0): {tensor.sum(dim=0)}") # Aggregation with keepdim=True print(f"Sum along rows with keepdim (dim=1): {tensor.sum(dim=1, keepdim=True)}") print(f"Sum along columns with keepdim (dim=0): {tensor.sum(dim=0, keepdim=True)}")
copy

Broadcasting

Broadcasting maakt bewerkingen tussen tensors van verschillende vormen mogelijk door dimensies automatisch uit te breiden. Indien een opfrissing over broadcasting nodig is, zijn meer details hier te vinden.

123456
import torch a = torch.tensor([[1, 2, 3]]) # Shape (1, 3) b = torch.tensor([[4], [5]]) # Shape (2, 1) # Broadcasting addition c = a + b print(f"Broadcasted addition: {c}")
copy

Nuttige Wiskundige Functies

PyTorch biedt ook diverse wiskundige functies zoals exponentiële, logaritmische en goniometrische functies.

1234567
tensor = torch.tensor([1.0, 2.0, 3.0]) # Exponentiation print(f"Exponent: {tensor.exp()}") # Logarithm print(f"Logarithm: {tensor.log()}") # Sine print(f"Sine: {tensor.sin()}")
copy
question mark

Welke van de volgende bewerkingen voert matrixvermenigvuldiging correct uit in PyTorch?

Select the correct answer

Was alles duidelijk?

Hoe kunnen we het verbeteren?

Bedankt voor je feedback!

Sectie 1. Hoofdstuk 7

Vraag AI

expand

Vraag AI

ChatGPT

Vraag wat u wilt of probeer een van de voorgestelde vragen om onze chat te starten.

Suggested prompts:

Can you explain more about element-wise operations in PyTorch?

What is the difference between element-wise and matrix operations?

How does broadcasting work in PyTorch?

Awesome!

Completion rate improved to 5

bookWiskundige Bewerkingen met Tensors

Veeg om het menu te tonen

Elementgewijze bewerkingen

Elementgewijze bewerkingen worden op elk element in de tensor individueel toegepast. Deze bewerkingen, zoals optellen, aftrekken en delen, werken vergelijkbaar met hoe ze in NumPy functioneren:

123456789101112131415
import torch a = torch.tensor([1, 2, 3]) b = torch.tensor([4, 5, 6]) # Element-wise addition addition_result = a + b print(f"Addition: {addition_result}") # Element-wise subtraction subtraction_result = a - b print(f"Subtraction: {subtraction_result}") # Element-wise multiplication multiplication_result = a * b print(f"Multiplication: {multiplication_result}") # Element-wise division division_result = a / b print(f"Division: {division_result}")
copy

Matrixbewerkingen

PyTorch ondersteunt ook matrixvermenigvuldiging en dotproduct, die worden uitgevoerd met de functie torch.matmul():

123456
import torch x = torch.tensor([[1, 2], [3, 4]]) y = torch.tensor([[5, 6], [7, 8]]) # Matrix multiplication z = torch.matmul(x, y) print(f"Matrix multiplication: {z}")
copy

Het @-operator kan ook worden gebruikt voor matrixvermenigvuldiging:

12345
import torch x = torch.tensor([[1, 2], [3, 4]]) y = torch.tensor([[5, 6], [7, 8]]) z = x @ y print(f"Matrix Multiplication with @: {z}")
copy

Aggregatiebewerkingen

Aggregatiebewerkingen berekenen samenvattende statistieken van tensors, zoals som, gemiddelde, maximum- en minimumwaarden, die kunnen worden berekend met hun respectievelijke methoden.

12345678910
import torch tensor = torch.tensor([[1, 2, 3], [4, 5, 6]]).float() # Sum of all elements print(f"Sum: {tensor.sum()}") # Mean of all elements print(f"Mean: {tensor.mean()}") # Maximum value print(f"Max: {tensor.max()}") # Minimum value print(f"Min: {tensor.min()}")
copy

Aggregatiemethoden hebben ook twee optionele parameters:

  • dim: specificeert de dimensie (vergelijkbaar met axis in NumPy) waarlangs de bewerking wordt toegepast. Standaard, als dim niet is opgegeven, wordt de bewerking toegepast op alle elementen van de tensor;
  • keepdim: een booleaanse vlag (False standaard). Indien ingesteld op True, wordt de gereduceerde dimensie behouden als een dimensie van grootte 1 in de uitvoer, waarbij het oorspronkelijke aantal dimensies behouden blijft.
12345678
import torch tensor = torch.tensor([[1, 2, 3], [4, 5, 6]]) # Aggregation operations along specific dimensions print(f"Sum along rows (dim=1): {tensor.sum(dim=1)}") print(f"Sum along columns (dim=0): {tensor.sum(dim=0)}") # Aggregation with keepdim=True print(f"Sum along rows with keepdim (dim=1): {tensor.sum(dim=1, keepdim=True)}") print(f"Sum along columns with keepdim (dim=0): {tensor.sum(dim=0, keepdim=True)}")
copy

Broadcasting

Broadcasting maakt bewerkingen tussen tensors van verschillende vormen mogelijk door dimensies automatisch uit te breiden. Indien een opfrissing over broadcasting nodig is, zijn meer details hier te vinden.

123456
import torch a = torch.tensor([[1, 2, 3]]) # Shape (1, 3) b = torch.tensor([[4], [5]]) # Shape (2, 1) # Broadcasting addition c = a + b print(f"Broadcasted addition: {c}")
copy

Nuttige Wiskundige Functies

PyTorch biedt ook diverse wiskundige functies zoals exponentiële, logaritmische en goniometrische functies.

1234567
tensor = torch.tensor([1.0, 2.0, 3.0]) # Exponentiation print(f"Exponent: {tensor.exp()}") # Logarithm print(f"Logarithm: {tensor.log()}") # Sine print(f"Sine: {tensor.sin()}")
copy
question mark

Welke van de volgende bewerkingen voert matrixvermenigvuldiging correct uit in PyTorch?

Select the correct answer

Was alles duidelijk?

Hoe kunnen we het verbeteren?

Bedankt voor je feedback!

Sectie 1. Hoofdstuk 7
some-alt