Werken met Specifieke Elementen
Navigeren door een HTML-document met behulp van Python-attributen haalt alleen het eerste voorkomen van een element op. Als u de eerste instantie van een element wilt vinden zonder het volledige pad te kennen, gebruikt u de .find()-methode en geeft u de tagnaam als een string door (zonder < >-haken). Zoek bijvoorbeeld het eerste <div>-element in het HTML-document.
123456789101112# Importing libraries from bs4 import BeautifulSoup from urllib.request import urlopen # Reading web page url = "https://codefinity-content-media.s3.eu-west-1.amazonaws.com/18a4e428-1a0f-44c2-a8ad-244cd9c7985e/jesus.html" page = urlopen(url) html = page.read().decode("utf-8") # Reading HTML with BeautifulSoup soup = BeautifulSoup(html, "html.parser") print(soup.find("div"))
U kunt ook alle instanties van een specifiek element ophalen met de .find_all()-methode. Deze retourneert een lijst met alle overeenkomsten. Zoek bijvoorbeeld alle <p>-tags in het HTML-document.
123456789101112# Importing libraries from bs4 import BeautifulSoup from urllib.request import urlopen # Reading web page url = "https://codefinity-content-media.s3.eu-west-1.amazonaws.com/18a4e428-1a0f-44c2-a8ad-244cd9c7985e/jesus.html" page = urlopen(url) html = page.read().decode("utf-8") # Reading HTML with BeautifulSoup soup = BeautifulSoup(html, "html.parser") print(soup.find_all("p"))
De methode .find_all() kan worden gebruikt om meerdere tags te vinden door een lijst met tagnamen door te geven. Bijvoorbeeld, verzamel alle <div>- en <title>-elementen.
12345678910111213# Importing libraries from bs4 import BeautifulSoup from urllib.request import urlopen # Reading web page url = "https://codefinity-content-media.s3.eu-west-1.amazonaws.com/18a4e428-1a0f-44c2-a8ad-244cd9c7985e/page.html" page = urlopen(url) html = page.read().decode("utf-8") # Reading HTML with BeautifulSoup soup = BeautifulSoup(html, "html.parser") for el in soup.find_all(["div", "title"]): print(el)
Bedankt voor je feedback!
Vraag AI
Vraag AI
Vraag wat u wilt of probeer een van de voorgestelde vragen om onze chat te starten.
Awesome!
Completion rate improved to 4.35
Werken met Specifieke Elementen
Veeg om het menu te tonen
Navigeren door een HTML-document met behulp van Python-attributen haalt alleen het eerste voorkomen van een element op. Als u de eerste instantie van een element wilt vinden zonder het volledige pad te kennen, gebruikt u de .find()-methode en geeft u de tagnaam als een string door (zonder < >-haken). Zoek bijvoorbeeld het eerste <div>-element in het HTML-document.
123456789101112# Importing libraries from bs4 import BeautifulSoup from urllib.request import urlopen # Reading web page url = "https://codefinity-content-media.s3.eu-west-1.amazonaws.com/18a4e428-1a0f-44c2-a8ad-244cd9c7985e/jesus.html" page = urlopen(url) html = page.read().decode("utf-8") # Reading HTML with BeautifulSoup soup = BeautifulSoup(html, "html.parser") print(soup.find("div"))
U kunt ook alle instanties van een specifiek element ophalen met de .find_all()-methode. Deze retourneert een lijst met alle overeenkomsten. Zoek bijvoorbeeld alle <p>-tags in het HTML-document.
123456789101112# Importing libraries from bs4 import BeautifulSoup from urllib.request import urlopen # Reading web page url = "https://codefinity-content-media.s3.eu-west-1.amazonaws.com/18a4e428-1a0f-44c2-a8ad-244cd9c7985e/jesus.html" page = urlopen(url) html = page.read().decode("utf-8") # Reading HTML with BeautifulSoup soup = BeautifulSoup(html, "html.parser") print(soup.find_all("p"))
De methode .find_all() kan worden gebruikt om meerdere tags te vinden door een lijst met tagnamen door te geven. Bijvoorbeeld, verzamel alle <div>- en <title>-elementen.
12345678910111213# Importing libraries from bs4 import BeautifulSoup from urllib.request import urlopen # Reading web page url = "https://codefinity-content-media.s3.eu-west-1.amazonaws.com/18a4e428-1a0f-44c2-a8ad-244cd9c7985e/page.html" page = urlopen(url) html = page.read().decode("utf-8") # Reading HTML with BeautifulSoup soup = BeautifulSoup(html, "html.parser") for el in soup.find_all(["div", "title"]): print(el)
Bedankt voor je feedback!