Scrapy - Сбор статистики
Описание
Сборщик статистики - это средство, предоставляемое Scrapy для сбора статистики в форме ключей / значений, и доступ к нему осуществляется с помощью API Crawler (Crawler обеспечивает доступ ко всем основным компонентам Scrapy). Сборщик статистики предоставляет одну таблицу статистики для каждого паука, в которой сборщик статистики открывается автоматически, когда паук открывается, и закрывает сборщик статистики, когда паук закрыт.
Обычное использование сборщика статистики
Следующий код обращается к сборщику статистики с помощью stats атрибут.
class ExtensionThatAccessStats(object):
def __init__(self, stats):
self.stats = stats
@classmethod
def from_crawler(cls, crawler):
return cls(crawler.stats)
В следующей таблице показаны различные параметры, которые можно использовать со сборщиком статистики -
Старший Нет | Параметры | Описание |
---|---|---|
1 | |
Он используется для установки значения статистики. |
2 | |
Увеличивает значение характеристики. |
3 | |
Вы можете установить значение статистики, только если оно больше предыдущего. |
4 | |
Вы можете установить значение статистики, только если оно ниже предыдущего значения. |
5 | |
Он получает значение статистики. |
6 | |
Он получает всю статистику |
Доступные сборщики статистики
Scrapy предоставляет различные типы сборщиков статистики, к которым можно получить доступ с помощью STATS_CLASS настройка.
MemoryStatsCollector
Это сборщик статистики по умолчанию, который поддерживает статистику каждого паука, который использовался для очистки, и данные будут храниться в памяти.
class scrapy.statscollectors.MemoryStatsCollector
DummyStatsCollector
Этот сборщик статистики очень эффективен и ничего не делает. Это можно установить с помощью параметра STATS_CLASS и можно использовать для отключения сбора статистики с целью повышения производительности.
class scrapy.statscollectors.DummyStatsCollector