Scrapy как сохранять большие объемы данных? Всем привет и заранее спасибо за ответы.
Не пинайте, только начал разбираться, подскажите как сохранять большие объемы данных? Если все это в csv выгружать более 400 000 строк не будет ли потом проблем?

21 Авг 2019 в 06:25
201 +1
0
Ответы
1

Привет! Для сохранения больших объемов данных при использовании Scrapy рекомендуется использовать базу данных, такую как MySQL, PostgreSQL или SQLite, вместо сохранения данных в CSV файлы. Базы данных обеспечивают более эффективное управление данными и более быстрый доступ к большим объемам информации.

В случае, если вы все же хотите сохранить данные в CSV файлы, то да, при большом количестве строк (более 400 000) могут возникнуть проблемы с производительностью и управлением файлами. В этом случае рекомендуется разбивать файлы на более мелкие, например, по 100 000 строк в каждом файле.

Также, учитывайте, что при работе с большими объемами данных важно оптимизировать процесс скрапинга и сохранения данных, чтобы избежать проблем со скоростью работы и использованием памяти.

Надеюсь, ответ был полезен! Если у вас возникнут дополнительные вопросы, не стесняйтесь задавать их.

20 Апр в 13:18
Не можешь разобраться в этой теме?
Обратись за помощью к экспертам
Название заказа не должно быть пустым
Введите email
Бесплатные доработки
Гарантированные бесплатные доработки
Быстрое выполнение
Быстрое выполнение от 2 часов
Проверка работы
Проверка работы на плагиат
Интересные статьи из справочника
Поможем написать учебную работу
Название заказа не должно быть пустым
Введите email
Доверьте свою работу экспертам
Разместите заказ
Наша система отправит ваш заказ на оценку 92 493 авторам
Первые отклики появятся уже в течение 10 минут
Прямой эфир