Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
looyolo
scrapy
提交
f766dd0b
S
scrapy
项目概览
looyolo
/
scrapy
与 Fork 源项目一致
从无法访问的项目Fork
通知
2
Star
0
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
S
scrapy
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
体验新版 GitCode,发现更多精彩内容 >>
提交
f766dd0b
编写于
2月 17, 2016
作者:
M
Mikhail Korobov
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
Preserve tracebacks better. Fixes GH-1760.
上级
06da7af9
变更
2
隐藏空白更改
内联
并排
Showing
2 changed file
with
27 addition
and
2 deletion
+27
-2
scrapy/crawler.py
scrapy/crawler.py
+13
-2
tests/test_commands.py
tests/test_commands.py
+14
-0
未找到文件。
scrapy/crawler.py
浏览文件 @
f766dd0b
...
...
@@ -3,6 +3,7 @@ import signal
import
logging
import
warnings
import
sys
from
twisted.internet
import
reactor
,
defer
from
zope.interface.verify
import
verifyClass
,
DoesNotImplement
...
...
@@ -73,11 +74,21 @@ class Crawler(object):
yield
self
.
engine
.
open_spider
(
self
.
spider
,
start_requests
)
yield
defer
.
maybeDeferred
(
self
.
engine
.
start
)
except
Exception
:
exc
=
defer
.
fail
()
# In Python 2 reraising an exception after yield discards
# the original traceback (see http://bugs.python.org/issue7563),
# so sys.exc_info() workaround is used.
# This workaround also works in Python 3, but it is not needed,
# and it is slower, so in Python 3 we use native `raise`.
if
six
.
PY2
:
exc_info
=
sys
.
exc_info
()
self
.
crawling
=
False
if
self
.
engine
is
not
None
:
yield
self
.
engine
.
close
()
yield
exc
if
six
.
PY2
:
raise
six
.
reraise
(
*
exc_info
)
raise
def
_create_spider
(
self
,
*
args
,
**
kwargs
):
return
self
.
spidercls
.
from_crawler
(
self
,
*
args
,
**
kwargs
)
...
...
tests/test_commands.py
浏览文件 @
f766dd0b
...
...
@@ -204,6 +204,20 @@ class MySpider(scrapy.Spider):
log
=
to_native_str
(
p
.
stderr
.
read
())
self
.
assertIn
(
"Unable to load"
,
log
)
def
test_start_requests_errors
(
self
):
p
=
self
.
runspider
(
"""
import scrapy
class BadSpider(scrapy.Spider):
name = "bad"
def start_requests(self):
raise Exception("oops!")
"""
,
name
=
"badspider.py"
)
log
=
to_native_str
(
p
.
stderr
.
read
())
print
(
log
)
self
.
assertIn
(
"start_requests"
,
log
)
self
.
assertIn
(
"badspider.py"
,
log
)
class
ParseCommandTest
(
ProcessTest
,
SiteTest
,
CommandTest
):
command
=
'parse'
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录