爬虫IP代理池
Project description
爬虫IP代理池
______ ______ _
| ___ \_ | ___ \ | |
| |_/ / \__ __ __ _ __ _ | |_/ /___ ___ | |
| __/| _// _ \ \ \/ /| | | || __// _ \ / _ \ | |
| | | | | (_) | > < \ |_| || | | (_) | (_) || |___
\_| |_| \___/ /_/\_\ \__ |\_| \___/ \___/ \_____\
__ / /
/___ /
介绍文档
-
支持版本:
-
测试地址: http://118.24.52.95:5010 (单机勿压。感谢)
下载安装
- 下载源码:
git clone git@github.com:jhao104/proxy_pool.git
或者直接到https://github.com/jhao104/proxy_pool 下载zip文件
- 安装依赖:
pip install -r requirements.txt
- 配置Config/setting.py:
# Config/setting.py 为项目配置文件
# 配置DB
DATABASES = {
"default": {
"TYPE": "SSDB", # 如果使用SSDB或redis数据库,均配置为SSDB
"HOST": "127.0.0.1", # db host
"PORT": 8888, # db port
"NAME": "proxy", # 默认配置
"PASSWORD": "" # db password
}
}
# 配置 ProxyGetter
PROXY_GETTER = [
"freeProxyFirst", # 这里是启用的代理抓取函数名,可在ProxyGetter/getFreeProxy.py 扩展
"freeProxySecond",
....
]
# 配置 API服务
SERVER_API = {
"HOST": "0.0.0.0", # 监听ip, 0.0.0.0 监听所有IP
"PORT": 5010 # 监听端口
}
# 上面配置启动后,代理池访问地址为 http://127.0.0.1:5010
- 启动:
# 如果你的依赖已经安全完成并且具备运行条件,可以直接在Run下运行main.py
# 到Run目录下:
>>>python main.py
# 如果运行成功你应该看到有4个main.py进程
# 你也可以分别运行他们,
# 依次到Api下启动ProxyApi.py,Schedule下启动ProxyRefreshSchedule.py和ProxyValidSchedule.py即可.
- 生产环境 Docker/docker-compose
# Workdir proxy_pool
docker build -t proxy_pool .
pip install docker-compose
docker-compose -f Docker/docker-compose.yml up -d
- 开发环境 Docker
# Workdir proxy_pool
docker build -t proxy_pool .
docker run -it --rm -v $(pwd):/usr/src/app -p 5010:5010 proxy_pool
使用
启动过几分钟后就能看到抓取到的代理IP,你可以直接到数据库中查看,推荐一个SSDB可视化工具。
也可以通过api访问http://127.0.0.1:5010 查看。
- Api
api | method | Description | arg |
---|---|---|---|
/ | GET | api介绍 | None |
/get | GET | 随机获取一个代理 | None |
/get_all | GET | 获取所有代理 | None |
/get_status | GET | 查看代理数量 | None |
/delete | GET | 删除代理 | proxy=host:ip |
- 爬虫使用
如果要在爬虫代码中使用的话, 可以将此api封装成函数直接使用,例如:
import requests
def get_proxy():
return requests.get("http://127.0.0.1:5010/get/").content
def delete_proxy(proxy):
requests.get("http://127.0.0.1:5010/delete/?proxy={}".format(proxy))
# your spider code
def getHtml():
# ....
retry_count = 5
proxy = get_proxy()
while retry_count > 0:
try:
html = requests.get('https://www.example.com', proxies={"http": "http://{}".format(proxy)})
# 使用代理访问
return html
except Exception:
retry_count -= 1
# 出错5次, 删除代理池中代理
delete_proxy(proxy)
return None
扩展代理
项目默认包含几个免费的代理获取方法,但是免费的毕竟质量不好,所以如果直接运行可能拿到的代理质量不理想。所以,提供了代理获取的扩展方法。
添加一个新的代理获取方法如下:
- 1、首先在GetFreeProxy类中添加你的获取代理的静态方法,
该方法需要以生成器(yield)形式返回
host:ip
格式的代理,例如:
class GetFreeProxy(object):
# ....
# 你自己的方法
@staticmethod
def freeProxyCustom(): # 命名不和已有重复即可
# 通过某网站或者某接口或某数据库获取代理 任意你喜欢的姿势都行
# 假设你拿到了一个代理列表
proxies = ["139.129.166.68:3128", "139.129.166.61:3128", ...]
for proxy in proxies:
yield proxy
# 确保每个proxy都是 host:ip正确的格式就行
- 2、添加好方法后,修改Config/setting.py文件中的
PROXY_GETTER
项:
在PROXY_GETTER
下添加自定义的方法的名字:
PROXY_GETTER = [
"freeProxyFirst",
"freeProxySecond",
....
"freeProxyCustom" # # 确保名字和你添加方法名字一致
]
ProxyRefreshSchedule
会每隔一段时间抓取一次代理,下次抓取时会自动识别调用你定义的方法。
代理采集
目前实现的采集免费代理网站有(排名不分先后, 下面仅是对其发布的免费代理情况, 付费代理测评可以参考这里):
厂商名称 | 状态 | 更新速度 | 可用率 | 是否被墙 | 地址 |
---|---|---|---|---|---|
无忧代理 | 可用 | 几分钟一次 | * | 否 | 地址 |
66代理 | 可用 | 更新很慢 | * | 否 | 地址 |
西刺代理 | 可用 | 几分钟一次 | * | 否 | 地址 |
全网代理 | 可用 | 几分钟一次 | * | 否 | 地址 |
训代理 | 已关闭免费代理 | * | * | 否 | 地址 |
快代理 | 可用 | 几分钟一次 | * | 否 | 地址 |
云代理 | 可用 | 几分钟一次 | * | 否 | 地址 |
IP海 | 可用 | 几小时一次 | * | 否 | 地址 |
免费IP代理库 | 可用 | 快 | * | 否 | 地址 |
中国IP地址 | 可用 | 几分钟一次 | * | 是 | 地址 |
Proxy List | 可用 | 几分钟一次 | * | 是 | 地址 |
ProxyList+ | 可用 | 几分钟一次 | * | 是 | 地址 |
如果还有其他好的免费代理网站, 可以在提交在issues, 下次更新时会考虑在项目中支持。
问题反馈
任何问题欢迎在Issues 中反馈,如果没有账号可以去 我的博客中留言。
你的反馈会让此项目变得更加完美。
贡献代码
本项目仅作为基本的通用的代理池架构,不接收特有功能(当然,不限于特别好的idea)。
本项目依然不够完善,如果发现bug或有新的功能添加,请在Issues中提交bug(或新功能)描述,在确认后提交你的代码。
这里感谢以下contributor的无私奉献:
@kangnwh| @bobobo80| @halleywj| @newlyedward| @wang-ye| @gladmo| @bernieyangmh| @PythonYXY| @zuijiawoniu| @netAir| @scil| @tangrela| @highroom| @luocaodan| @vc5| @1again
Release Notes
Project details
Release history Release notifications | RSS feed
Download files
Download the file for your platform. If you're not sure which to choose, learn more about installing packages.
Source Distribution
Built Distribution
File details
Details for the file proxy_pool_pro-1.3.5.tar.gz
.
File metadata
- Download URL: proxy_pool_pro-1.3.5.tar.gz
- Upload date:
- Size: 26.4 kB
- Tags: Source
- Uploaded using Trusted Publishing? No
- Uploaded via: twine/5.1.0 CPython/3.11.2
File hashes
Algorithm | Hash digest | |
---|---|---|
SHA256 | d14930c3043b8a4cc58c086d3471a0900b077358827fc80e5919f066ee7854f1 |
|
MD5 | f1247c738a86e39487c4556d7773a318 |
|
BLAKE2b-256 | 0fecb9bd94845627dc4698686362831771056c4ede727a19b76140242156afe7 |
File details
Details for the file proxy_pool_pro-1.3.5-py3-none-any.whl
.
File metadata
- Download URL: proxy_pool_pro-1.3.5-py3-none-any.whl
- Upload date:
- Size: 31.8 kB
- Tags: Python 3
- Uploaded using Trusted Publishing? No
- Uploaded via: twine/5.1.0 CPython/3.11.2
File hashes
Algorithm | Hash digest | |
---|---|---|
SHA256 | 4e3254e678018bdfca027831011c1a9ac9193f8fbe23856bed89110927caccad |
|
MD5 | 661108d41f8f64d0edf18e58c3da36f4 |
|
BLAKE2b-256 | b7d8f54d6aff90cbee19b4265b1c0609ed162526cc741761c820254f5c51cd51 |