确保已安装Python:首先,确保您的计算机上已经安装了Python。您可以访问Python官方网站(https://www.python.org/downloads/ )下载并安装适合您操作系统的Python版本。
安装pip(如果尚未安装):pip是Python的包管理工具,用于安装和管理第三方库。大多数Python发行版都自带了pip。要检查是否已经安装了pip,请在命令行或终端中输入以下命令:
pip --version
如果未安装pip,请参考官方文档(https://pip.pypa.io/en/stable/installation/ )进行安装。
pip install scrapy
您还可以安装其他爬虫包,例如BeautifulSoup4(用于解析HTML内容)和Requests(用于发送HTTP请求):
pip install beautifulsoup4 pip install requests
spiders
的子文件夹,用于存放爬虫脚本。my_crawler/ spiders/
在spiders
文件夹中,创建一个名为my_spider.py
的文件,用于编写您的爬虫脚本。例如:
import scrapy class MySpider(scrapy.Spider): name = 'my_spider' start_urls = ['https://example.com'] def parse(self, response): self.log('Visited %s' % response.url) for quote in response.css('div.quote'): item = { 'author_name': quote.css('span.text::text').get(), 'author_url': quote.xpath('span/small/a/@href').get(), } yield item
my_crawler
文件夹中,创建一个名为settings.py
的文件,用于配置您的爬虫项目。例如:# settings.py # 启用日志记录 LOG_ENABLED = True # 设置日志级别 LOG_LEVEL = 'INFO' # 设置爬取速度,单位为秒 DOWNLOAD_DELAY = 3 # 设置User-Agent USER_AGENT = 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3' # 设置代理服务器(如果需要) HTTP_PROXY = 'http://proxy.example.com:8080' # 设置是否使用代理中间件 DOWNLOADER_MIDDLEWARES = { 'my_crawler.middlewares.ProxyMiddleware': 100, }
my_crawler
文件夹中创建一个名为middlewares.py
的文件,用于编写中间件脚本。例如:# middlewares.py class ProxyMiddleware(object): def process_request(self, request, spider): request.meta['proxy'] = spider.settings.get('HTTP_PROXY')
my_crawler
文件夹,然后使用以下命令运行您的爬虫:scrapy crawl my_spider
这将启动您的爬虫,开始抓取目标网站的内容。您可以根据需要修改爬虫脚本和配置文件,以满足您的爬虫需求。