Wiskundige Bewerkingen met Tensors
Elementgewijze bewerkingen
Elementgewijze bewerkingen worden op elk element in de tensor individueel toegepast. Deze bewerkingen, zoals optellen, aftrekken en delen, werken vergelijkbaar met hoe ze in NumPy functioneren:
123456789101112131415import torch a = torch.tensor([1, 2, 3]) b = torch.tensor([4, 5, 6]) # Element-wise addition addition_result = a + b print(f"Addition: {addition_result}") # Element-wise subtraction subtraction_result = a - b print(f"Subtraction: {subtraction_result}") # Element-wise multiplication multiplication_result = a * b print(f"Multiplication: {multiplication_result}") # Element-wise division division_result = a / b print(f"Division: {division_result}")
Matrixbewerkingen
PyTorch ondersteunt ook matrixvermenigvuldiging en dotproduct, die worden uitgevoerd met de functie torch.matmul()
:
123456import torch x = torch.tensor([[1, 2], [3, 4]]) y = torch.tensor([[5, 6], [7, 8]]) # Matrix multiplication z = torch.matmul(x, y) print(f"Matrix multiplication: {z}")
Het @
-operator kan ook worden gebruikt voor matrixvermenigvuldiging:
12345import torch x = torch.tensor([[1, 2], [3, 4]]) y = torch.tensor([[5, 6], [7, 8]]) z = x @ y print(f"Matrix Multiplication with @: {z}")
Aggregatiebewerkingen
Aggregatiebewerkingen berekenen samenvattende statistieken van tensors, zoals som, gemiddelde, maximum- en minimumwaarden, die kunnen worden berekend met hun respectievelijke methoden.
12345678910import torch tensor = torch.tensor([[1, 2, 3], [4, 5, 6]]).float() # Sum of all elements print(f"Sum: {tensor.sum()}") # Mean of all elements print(f"Mean: {tensor.mean()}") # Maximum value print(f"Max: {tensor.max()}") # Minimum value print(f"Min: {tensor.min()}")
Aggregatiemethoden hebben ook twee optionele parameters:
dim
: specificeert de dimensie (vergelijkbaar metaxis
in NumPy) waarlangs de bewerking wordt toegepast. Standaard, alsdim
niet is opgegeven, wordt de bewerking toegepast op alle elementen van de tensor;keepdim
: een booleaanse vlag (False
standaard). Indien ingesteld opTrue
, wordt de gereduceerde dimensie behouden als een dimensie van grootte1
in de uitvoer, waarbij het oorspronkelijke aantal dimensies behouden blijft.
12345678import torch tensor = torch.tensor([[1, 2, 3], [4, 5, 6]]) # Aggregation operations along specific dimensions print(f"Sum along rows (dim=1): {tensor.sum(dim=1)}") print(f"Sum along columns (dim=0): {tensor.sum(dim=0)}") # Aggregation with keepdim=True print(f"Sum along rows with keepdim (dim=1): {tensor.sum(dim=1, keepdim=True)}") print(f"Sum along columns with keepdim (dim=0): {tensor.sum(dim=0, keepdim=True)}")
Broadcasting
Broadcasting maakt bewerkingen tussen tensors van verschillende vormen mogelijk door dimensies automatisch uit te breiden. Indien een opfrissing over broadcasting nodig is, zijn meer details hier te vinden.
123456import torch a = torch.tensor([[1, 2, 3]]) # Shape (1, 3) b = torch.tensor([[4], [5]]) # Shape (2, 1) # Broadcasting addition c = a + b print(f"Broadcasted addition: {c}")
Nuttige Wiskundige Functies
PyTorch biedt ook diverse wiskundige functies zoals exponentiële, logaritmische en goniometrische functies.
1234567tensor = torch.tensor([1.0, 2.0, 3.0]) # Exponentiation print(f"Exponent: {tensor.exp()}") # Logarithm print(f"Logarithm: {tensor.log()}") # Sine print(f"Sine: {tensor.sin()}")
Bedankt voor je feedback!
Vraag AI
Vraag AI
Vraag wat u wilt of probeer een van de voorgestelde vragen om onze chat te starten.
Can you explain more about element-wise operations in PyTorch?
What is the difference between element-wise and matrix operations?
How does broadcasting work in PyTorch?
Awesome!
Completion rate improved to 5
Wiskundige Bewerkingen met Tensors
Veeg om het menu te tonen
Elementgewijze bewerkingen
Elementgewijze bewerkingen worden op elk element in de tensor individueel toegepast. Deze bewerkingen, zoals optellen, aftrekken en delen, werken vergelijkbaar met hoe ze in NumPy functioneren:
123456789101112131415import torch a = torch.tensor([1, 2, 3]) b = torch.tensor([4, 5, 6]) # Element-wise addition addition_result = a + b print(f"Addition: {addition_result}") # Element-wise subtraction subtraction_result = a - b print(f"Subtraction: {subtraction_result}") # Element-wise multiplication multiplication_result = a * b print(f"Multiplication: {multiplication_result}") # Element-wise division division_result = a / b print(f"Division: {division_result}")
Matrixbewerkingen
PyTorch ondersteunt ook matrixvermenigvuldiging en dotproduct, die worden uitgevoerd met de functie torch.matmul()
:
123456import torch x = torch.tensor([[1, 2], [3, 4]]) y = torch.tensor([[5, 6], [7, 8]]) # Matrix multiplication z = torch.matmul(x, y) print(f"Matrix multiplication: {z}")
Het @
-operator kan ook worden gebruikt voor matrixvermenigvuldiging:
12345import torch x = torch.tensor([[1, 2], [3, 4]]) y = torch.tensor([[5, 6], [7, 8]]) z = x @ y print(f"Matrix Multiplication with @: {z}")
Aggregatiebewerkingen
Aggregatiebewerkingen berekenen samenvattende statistieken van tensors, zoals som, gemiddelde, maximum- en minimumwaarden, die kunnen worden berekend met hun respectievelijke methoden.
12345678910import torch tensor = torch.tensor([[1, 2, 3], [4, 5, 6]]).float() # Sum of all elements print(f"Sum: {tensor.sum()}") # Mean of all elements print(f"Mean: {tensor.mean()}") # Maximum value print(f"Max: {tensor.max()}") # Minimum value print(f"Min: {tensor.min()}")
Aggregatiemethoden hebben ook twee optionele parameters:
dim
: specificeert de dimensie (vergelijkbaar metaxis
in NumPy) waarlangs de bewerking wordt toegepast. Standaard, alsdim
niet is opgegeven, wordt de bewerking toegepast op alle elementen van de tensor;keepdim
: een booleaanse vlag (False
standaard). Indien ingesteld opTrue
, wordt de gereduceerde dimensie behouden als een dimensie van grootte1
in de uitvoer, waarbij het oorspronkelijke aantal dimensies behouden blijft.
12345678import torch tensor = torch.tensor([[1, 2, 3], [4, 5, 6]]) # Aggregation operations along specific dimensions print(f"Sum along rows (dim=1): {tensor.sum(dim=1)}") print(f"Sum along columns (dim=0): {tensor.sum(dim=0)}") # Aggregation with keepdim=True print(f"Sum along rows with keepdim (dim=1): {tensor.sum(dim=1, keepdim=True)}") print(f"Sum along columns with keepdim (dim=0): {tensor.sum(dim=0, keepdim=True)}")
Broadcasting
Broadcasting maakt bewerkingen tussen tensors van verschillende vormen mogelijk door dimensies automatisch uit te breiden. Indien een opfrissing over broadcasting nodig is, zijn meer details hier te vinden.
123456import torch a = torch.tensor([[1, 2, 3]]) # Shape (1, 3) b = torch.tensor([[4], [5]]) # Shape (2, 1) # Broadcasting addition c = a + b print(f"Broadcasted addition: {c}")
Nuttige Wiskundige Functies
PyTorch biedt ook diverse wiskundige functies zoals exponentiële, logaritmische en goniometrische functies.
1234567tensor = torch.tensor([1.0, 2.0, 3.0]) # Exponentiation print(f"Exponent: {tensor.exp()}") # Logarithm print(f"Logarithm: {tensor.log()}") # Sine print(f"Sine: {tensor.sin()}")
Bedankt voor je feedback!