我这样做的方式是创建虚假响应,这样您就可以离线测试解析功能。但是你可以通过使用真正的 HTML 来获得真实的情况。
这种方法的一个问题是您的本地 HTML 文件可能无法反映在线的最新状态。因此,如果 HTML 在线更改,您可能会遇到很大的错误,但您的测试用例仍然会通过。因此,以这种方式进行测试可能不是最好的方法。
我目前的工作流程是,每当出现错误时,我都会向管理员发送一封带有 url 的电子邮件。然后对于那个特定的错误,我创建一个包含导致错误的内容的 html 文件。然后我为它创建一个单元测试。
这是我用来创建示例 Scrapy http 响应以从本地 html 文件进行测试的代码:
# scrapyproject/tests/responses/__init__.py
import os
from scrapy.http import Response, Request
def fake_response_from_file(file_name, url=None):
"""
Create a Scrapy fake HTTP response from a HTML file
@param file_name: The relative filename from the responses directory,
but absolute paths are also accepted.
@param url: The URL of the response.
returns: A scrapy HTTP response which can be used for unittesting.
"""
if not url:
url = 'http://www.example.com'
request = Request(url=url)
if not file_name[0] == '/':
responses_dir = os.path.dirname(os.path.realpath(__file__))
file_path = os.path.join(responses_dir, file_name)
else:
file_path = file_name
file_content = open(file_path, 'r').read()
response = Response(url=url,
request=request,
body=file_content)
response.encoding = 'utf-8'
return response
示例 html 文件位于 scrapyproject/tests/responses/osdir/sample.html
那么测试用例可能如下所示: 测试用例位置是 scrapyproject/tests/test_osdir.py
import unittest
from scrapyproject.spiders import osdir_spider
from responses import fake_response_from_file
class OsdirSpiderTest(unittest.TestCase):
def setUp(self):
self.spider = osdir_spider.DirectorySpider()
def _test_item_results(self, results, expected_length):
count = 0
permalinks = set()
for item in results:
self.assertIsNotNone(item['content'])
self.assertIsNotNone(item['title'])
self.assertEqual(count, expected_length)
def test_parse(self):
results = self.spider.parse(fake_response_from_file('osdir/sample.html'))
self._test_item_results(results, 10)
这基本上就是我测试我的解析方法的方式,但它不仅适用于解析方法。如果它变得更复杂,我建议看看Mox