Skip to main content

爬虫IP代理池

Project description

爬虫IP代理池

Build Status Requirements Status Packagist GitHub contributors

______                        ______             _
| ___ \_                      | ___ \           | |
| |_/ / \__ __   __  _ __   _ | |_/ /___   ___  | |
|  __/|  _// _ \ \ \/ /| | | ||  __// _ \ / _ \ | |
| |   | | | (_) | >  < \ |_| || |  | (_) | (_) || |___
\_|   |_|  \___/ /_/\_\ \__  |\_|   \___/ \___/ \_____\
                       __ / /
                      /___ /
介绍文档

下载安装

  • 下载源码:
git clone git@github.com:jhao104/proxy_pool.git

或者直接到https://github.com/jhao104/proxy_pool 下载zip文件
  • 安装依赖:
pip install -r requirements.txt
  • 配置Config/setting.py:
# Config/setting.py 为项目配置文件

# 配置DB     
DATABASES = {
    "default": {
        "TYPE": "SSDB",        # 如果使用SSDB或redis数据库,均配置为SSDB
        "HOST": "127.0.0.1",   # db host
        "PORT": 8888,          # db port
        "NAME": "proxy",       # 默认配置
        "PASSWORD": ""         # db password

    }
}


# 配置 ProxyGetter

PROXY_GETTER = [
    "freeProxyFirst",      # 这里是启用的代理抓取函数名,可在ProxyGetter/getFreeProxy.py 扩展
    "freeProxySecond",
    ....
]


# 配置 API服务

SERVER_API = {
    "HOST": "0.0.0.0",  # 监听ip, 0.0.0.0 监听所有IP
    "PORT": 5010        # 监听端口
}
       
# 上面配置启动后,代理池访问地址为 http://127.0.0.1:5010
  • 启动:
# 如果你的依赖已经安全完成并且具备运行条件,可以直接在Run下运行main.py
# 到Run目录下:
>>>python main.py

# 如果运行成功你应该看到有4个main.py进程

# 你也可以分别运行他们,
# 依次到Api下启动ProxyApi.py,Schedule下启动ProxyRefreshSchedule.py和ProxyValidSchedule.py即可.
  • 生产环境 Docker/docker-compose
# Workdir proxy_pool
docker build -t proxy_pool .
pip install docker-compose
docker-compose -f Docker/docker-compose.yml up -d
  • 开发环境 Docker
# Workdir proxy_pool
docker build -t proxy_pool .
docker run -it --rm -v $(pwd):/usr/src/app -p 5010:5010 proxy_pool

使用

  启动过几分钟后就能看到抓取到的代理IP,你可以直接到数据库中查看,推荐一个SSDB可视化工具

  也可以通过api访问http://127.0.0.1:5010 查看。

  • Api
api method Description arg
/ GET api介绍 None
/get GET 随机获取一个代理 None
/get_all GET 获取所有代理 None
/get_status GET 查看代理数量 None
/delete GET 删除代理 proxy=host:ip
  • 爬虫使用

  如果要在爬虫代码中使用的话, 可以将此api封装成函数直接使用,例如:

import requests

def get_proxy():
    return requests.get("http://127.0.0.1:5010/get/").content

def delete_proxy(proxy):
    requests.get("http://127.0.0.1:5010/delete/?proxy={}".format(proxy))

# your spider code

def getHtml():
    # ....
    retry_count = 5
    proxy = get_proxy()
    while retry_count > 0:
        try:
            html = requests.get('https://www.example.com', proxies={"http": "http://{}".format(proxy)})
            # 使用代理访问
            return html
        except Exception:
            retry_count -= 1
    # 出错5次, 删除代理池中代理
    delete_proxy(proxy)
    return None

扩展代理

  项目默认包含几个免费的代理获取方法,但是免费的毕竟质量不好,所以如果直接运行可能拿到的代理质量不理想。所以,提供了代理获取的扩展方法。

  添加一个新的代理获取方法如下:

  • 1、首先在GetFreeProxy类中添加你的获取代理的静态方法, 该方法需要以生成器(yield)形式返回host:ip格式的代理,例如:
class GetFreeProxy(object):
    # ....

    # 你自己的方法
    @staticmethod
    def freeProxyCustom():  # 命名不和已有重复即可

        # 通过某网站或者某接口或某数据库获取代理 任意你喜欢的姿势都行
        # 假设你拿到了一个代理列表
        proxies = ["139.129.166.68:3128", "139.129.166.61:3128", ...]
        for proxy in proxies:
            yield proxy
        # 确保每个proxy都是 host:ip正确的格式就行
  • 2、添加好方法后,修改Config/setting.py文件中的PROXY_GETTER项:

  在PROXY_GETTER下添加自定义的方法的名字:

PROXY_GETTER = [
    "freeProxyFirst",    
    "freeProxySecond",
    ....
    "freeProxyCustom"  #  # 确保名字和你添加方法名字一致
]

  ProxyRefreshSchedule会每隔一段时间抓取一次代理,下次抓取时会自动识别调用你定义的方法。

代理采集

目前实现的采集免费代理网站有(排名不分先后, 下面仅是对其发布的免费代理情况, 付费代理测评可以参考这里):

厂商名称 状态 更新速度 可用率 是否被墙 地址
无忧代理 可用 几分钟一次 * 地址
66代理 可用 更新很慢 * 地址
西刺代理 可用 几分钟一次 * 地址
全网代理 可用 几分钟一次 * 地址
训代理 已关闭免费代理 * * 地址
快代理 可用 几分钟一次 * 地址
云代理 可用 几分钟一次 * 地址
IP海 可用 几小时一次 * 地址
免费IP代理库 可用 * 地址
中国IP地址 可用 几分钟一次 * 地址
Proxy List 可用 几分钟一次 * 地址
ProxyList+ 可用 几分钟一次 * 地址

如果还有其他好的免费代理网站, 可以在提交在issues, 下次更新时会考虑在项目中支持。

问题反馈

  任何问题欢迎在Issues 中反馈,如果没有账号可以去 我的博客中留言。

  你的反馈会让此项目变得更加完美。

贡献代码

  本项目仅作为基本的通用的代理池架构,不接收特有功能(当然,不限于特别好的idea)。

  本项目依然不够完善,如果发现bug或有新的功能添加,请在Issues中提交bug(或新功能)描述,在确认后提交你的代码。

  这里感谢以下contributor的无私奉献:

  @kangnwh| @bobobo80| @halleywj| @newlyedward| @wang-ye| @gladmo| @bernieyangmh| @PythonYXY| @zuijiawoniu| @netAir| @scil| @tangrela| @highroom| @luocaodan| @vc5| @1again

Release Notes

release notes

Project details


Download files

Download the file for your platform. If you're not sure which to choose, learn more about installing packages.

Source Distribution

proxy_pool_pro-1.3.5.tar.gz (26.4 kB view details)

Uploaded Source

Built Distribution

proxy_pool_pro-1.3.5-py3-none-any.whl (31.8 kB view details)

Uploaded Python 3

File details

Details for the file proxy_pool_pro-1.3.5.tar.gz.

File metadata

  • Download URL: proxy_pool_pro-1.3.5.tar.gz
  • Upload date:
  • Size: 26.4 kB
  • Tags: Source
  • Uploaded using Trusted Publishing? No
  • Uploaded via: twine/5.1.0 CPython/3.11.2

File hashes

Hashes for proxy_pool_pro-1.3.5.tar.gz
Algorithm Hash digest
SHA256 d14930c3043b8a4cc58c086d3471a0900b077358827fc80e5919f066ee7854f1
MD5 f1247c738a86e39487c4556d7773a318
BLAKE2b-256 0fecb9bd94845627dc4698686362831771056c4ede727a19b76140242156afe7

See more details on using hashes here.

File details

Details for the file proxy_pool_pro-1.3.5-py3-none-any.whl.

File metadata

File hashes

Hashes for proxy_pool_pro-1.3.5-py3-none-any.whl
Algorithm Hash digest
SHA256 4e3254e678018bdfca027831011c1a9ac9193f8fbe23856bed89110927caccad
MD5 661108d41f8f64d0edf18e58c3da36f4
BLAKE2b-256 b7d8f54d6aff90cbee19b4265b1c0609ed162526cc741761c820254f5c51cd51

See more details on using hashes here.

Supported by

AWS AWS Cloud computing and Security Sponsor Datadog Datadog Monitoring Fastly Fastly CDN Google Google Download Analytics Microsoft Microsoft PSF Sponsor Pingdom Pingdom Monitoring Sentry Sentry Error logging StatusPage StatusPage Status page