如何避免 HTTP 错误 429(请求过多)python
- 2025-02-07 08:44:00
- admin 原创
- 96
问题描述:
我正在尝试使用 Python 登录一个网站并从多个网页收集信息,但出现以下错误:
Traceback (most recent call last): File "extract_test.py", line 43, in <module> response=br.open(v) File "/usr/local/lib/python2.7/dist-packages/mechanize/_mechanize.py", line 203, in open return self._mech_open(url, data, timeout=timeout) File "/usr/local/lib/python2.7/dist-packages/mechanize/_mechanize.py", line 255, in _mech_open raise response mechanize._response.httperror_seek_wrapper: HTTP Error 429: Unknown Response Code
我用过time.sleep()
,它可以工作,但它似乎不智能也不可靠,还有其他方法可以避免这个错误吗?
这是我的代码:
import mechanize
import cookielib
import re
first=("example.com/page1")
second=("example.com/page2")
third=("example.com/page3")
fourth=("example.com/page4")
## I have seven URL's I want to open
urls_list=[first,second,third,fourth]
br = mechanize.Browser()
# Cookie Jar
cj = cookielib.LWPCookieJar()
br.set_cookiejar(cj)
# Browser options
br.set_handle_equiv(True)
br.set_handle_redirect(True)
br.set_handle_referer(True)
br.set_handle_robots(False)
# Log in credentials
br.open("example.com")
br.select_form(nr=0)
br["username"] = "username"
br["password"] = "password"
br.submit()
for url in urls_list:
br.open(url)
print re.findall("Some String")
解决方案 1:
收到状态 429 不是一个错误,而是另一台服务器“善意”地要求您停止发送垃圾邮件。显然,您的请求率太高,服务器不愿意接受这一点。
您不应该试图“躲避”这种情况,甚至试图通过尝试欺骗您的 IP 来规避服务器的安全设置,您应该只是尊重服务器的答复,不要发送太多请求。
如果一切设置正确,您还将收到“Retry-after”标头以及 429 响应。此标头指定在进行另一次调用之前应等待的秒数。处理此“问题”的正确方法是读取此标头并让您的进程休眠这么多秒。
您可以在此处找到有关状态 429 的更多信息:https://www.rfc-editor.org/rfc/rfc6585#page-3
解决方案 2:
请求时编写这段代码解决了我的问题:
requests.get(link, headers = {'User-agent': 'your bot 0.1'})
这种方法之所以有效,是因为当未提供用户代理时,网站有时会返回“请求过多 (429)”错误。例如,Reddit 的 API 仅在应用用户代理时才有效。
解决方案 3:
正如 MRA 所说,您不应该试图躲避429 Too Many Requests
,而应该采取相应的措施。根据您的用例,您有几种选择:
1)让进程休眠。服务器通常会Retry-after
在响应中包含一个标头,其中包含重试前应等待的秒数。请记住,让进程休眠可能会导致问题,例如在任务队列中,您应该稍后重试该任务以释放工作进程以处理其他事务。
2)指数退避。如果服务器没有告诉您需要等待多长时间,您可以增加暂停次数,重试请求。流行的任务队列 Celery 内置了此功能。
3)令牌桶。如果您事先知道在给定时间内可以发出多少个请求,则此技术非常有用。每次访问 API 时,您首先从桶中获取一个令牌。桶以恒定的速率重新填充。如果桶是空的,您知道您必须等待才能再次访问 API。令牌桶通常在另一端(API)实现,但您也可以将它们用作代理,以避免获得429 Too Many Requests
。Celery 的rate_limit功能使用令牌桶算法。
以下是使用指数退避和速率限制/令牌桶的 Python/Celery 应用程序的示例:
class TooManyRequests(Exception):
"""Too many requests"""
@task(
rate_limit='10/s',
autoretry_for=(ConnectTimeout, TooManyRequests,),
retry_backoff=True)
def api(*args, **kwargs):
r = requests.get('placeholder-external-api')
if r.status_code == 429:
raise TooManyRequests()
解决方案 4:
if response.status_code == 429:
time.sleep(int(response.headers["Retry-After"]))
解决方案 5:
另一种解决方法是使用某种公共 VPN 或 Tor 网络来欺骗您的 IP。这将假设服务器在 IP 级别进行速率限制。
有一篇简短的博客文章演示了如何将 tor 与 urllib2 一起使用:
http://blog.flip-edesign.com/?p=119
解决方案 6:
我找到了一个很好的方法来处理爬取网站时 IP 被屏蔽的问题。它让你可以无限期地运行爬取程序,方法是从 Google App Engine 运行它,并在收到 429 时自动重新部署它。
查看这篇文章
解决方案 7:
在许多情况下,即使服务器要求您不要这样做,继续从网站抓取数据也是不道德的。但是,在不道德的情况下,您可以利用公共代理列表来抓取具有许多不同 IP 地址的网站。
扫码咨询,免费领取项目管理大礼包!