Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Вивчайте Challenge: Filtering Large Datasets | Working with Large Datasets
Large Data Handling
Секція 1. Розділ 5
single

single

Challenge: Filtering Large Datasets

Свайпніть щоб показати меню

Imagine you are tasked with analyzing a massive CSV file containing millions of records—too large to load into memory all at once. Your goal is to extract only those rows where a specific column's value exceeds a given threshold, saving the filtered results to a new file. This scenario is common in large-scale data analysis, where efficient, memory-friendly processing is essential.

Завдання

Проведіть, щоб почати кодувати

Implement a function that processes a large CSV file in chunks and writes only the rows where the specified column's value is greater than the given threshold to a new file.

  • Read the input CSV file in chunks of size chunk_size.
  • For each chunk, filter rows where the column specified by column is greater than threshold.
  • Write all filtered rows to the output CSV file, including the header row.
  • If no rows match the condition, write only the header to the output file.

Рішення

Switch to desktopПерейдіть на комп'ютер для реальної практикиПродовжуйте з того місця, де ви зупинились, використовуючи один з наведених нижче варіантів
Все було зрозуміло?

Як ми можемо покращити це?

Дякуємо за ваш відгук!

Секція 1. Розділ 5
single

single

Запитати АІ

expand

Запитати АІ

ChatGPT

Запитайте про що завгодно або спробуйте одне із запропонованих запитань, щоб почати наш чат

some-alt