Skip to main content

基于原primp 用rust重构调整的python请求库 - The fastest python HTTP client that can impersonate web browsers

Project description

NEVER_PRIMP

基于 Rust + wreq 的高性能 Python HTTP 客户端 专为网络爬虫、浏览器指纹伪装与风控绕过设计

Python >= 3.8 PyPI version License Rust

安装 · 快速开始 · 性能原理 · Cookie 管理 · 浏览器伪装 · API 参考


为什么选择 NEVER_PRIMP?

功能 NEVER_PRIMP requests httpx curl-cffi
浏览器 TLS/JA3/JA4 指纹 ✅ 100+ 配置 ✅ 有限
HTTP/2 指纹(AKAMAI)
请求头顺序精确控制
Cookie 分割(HTTP/2 风格)
跨子域名 Cookie 共享 ✅ RFC 6265
Cookie 跨会话持久化
高并发无锁 Client 共享
GIL 释放(真实并行)
重试策略 ✅ 内置预算
文件上传(multipart)

性能基准(测试 URL: https://www.baidu.com)

requests httpx curl-cffi never_primp
单次请求 646 ms 90 ms 122 ms 86 ms
串行 10 次 655 ms 20 ms 47 ms 19 ms
并发 100 任务 697 ms 23 ms 56 ms 20 ms

安装

pip install -U never-primp

平台支持:Linux (x86_64/aarch64) · Windows (x86_64) · macOS (x86_64/ARM64)

从源码构建

pip install maturin
maturin develop --release

快速开始

import never_primp

# 最简单的用法
r = never_primp.get("https://httpbin.org/get")
print(r.status_code, r.json())

# 带浏览器指纹的 Client
client = never_primp.Client(
    impersonate="chrome_143",
    impersonate_os="windows",
    timeout=30.0,
)
r = client.get("https://httpbin.org/headers")
print(r.json())

# 上下文管理器
with never_primp.Client(impersonate="firefox_147") as client:
    r = client.post("https://httpbin.org/post", json={"key": "value"})
    print(r.json())

性能优化原理深度解析

这一节详细解释 never_primp 每一项性能设计的底层原理。

1. 去除 Arc<Mutex<Client>>:消灭并发瓶颈

旧版问题

// 旧版:所有线程争同一把锁
pub struct RClient {
    client: Arc<Mutex<wreq::Client>>,  // 问题所在
}

// 每次发请求:
let resp = client.lock().unwrap().request(...).send().await;
//                ^^^^^^^^^^^
//                持锁期间,其他线程全部阻塞等待!

在 Python 的 ThreadPoolExecutor 场景下,20 个线程各自调用 client.get()

线程1  ──[lock]──── request ──── [unlock]──
线程2             [等待] ────── request ──── [等待]...
线程3                       [等待] ...
                             串行化!

新版方案

wreq::Client 内部已用 Arc 包裹所有状态(连接池、Cookie Jar、配置),它实现了 Clone + Send + Sync

// 新版:直接存储,clone 是零成本的 Arc 引用计数+1
pub struct RClient {
    client: wreq::Client,   // 内部已是 Arc<Inner>
}

// 请求时 clone 传入 async 块
let client = self.client.clone();  // 仅增加引用计数,O(1),无锁
let future = async move {
    client.request(method, url).send().await
};
py.detach(|| RUNTIME.block_on(future));  // GIL 释放后真正并行

20 个线程同时发请求:

线程1  ── clone(O1) ─── request ───────── 并行!
线程2  ── clone(O1) ─── request ───────── 并行!
线程3  ── clone(O1) ─── request ───────── 并行!
           ↑ 每个 clone 只是原子计数+1,互不干扰

性能影响:高并发场景下吞吐量从串行变为真正并行,延迟从 O(N×T) 降为 O(T)。


2. GIL 释放:Python 多线程的正确姿势

Python 的 GIL(Global Interpreter Lock)保证同一时刻只有一个线程执行 Python 字节码,但 IO 操作期间可以释放。

never_primp 的实现

// 进入 IO 之前显式释放 GIL
let wreq_response = py.detach(|| {
    RUNTIME.block_on(future)  // 整个 HTTP 请求期间 GIL 释放
});
// GIL 在这里自动重新获取

py.detach() 等价于在 C 扩展中调用 Py_BEGIN_ALLOW_THREADS,让其他 Python 线程在等待 HTTP 响应期间正常运行。

实际效果

GIL 持有时间线(旧版无释放):
Thread1: [GIL][send HTTP][wait response][GIL] ...
Thread2:            [等待GIL..............][GIL][send HTTP]...
结果:几乎串行

GIL 释放时间线(新版):
Thread1: [GIL][send HTTP─────────]→[wait resp in Tokio]→[GIL][return]
Thread2:      [GIL][send HTTP─────]→[wait resp in Tokio]→[GIL][return]
Thread3:           [GIL][send HTTP]→[wait resp in Tokio]→[GIL][return]
结果:真正并行

GIL 只在构建请求和处理响应这两个极短的 CPU 阶段被持有,网络 IO 等待期间全部并行。


3. Tokio 异步运行时:4 Worker 线程的选择

// src/runtime.rs
pub static RUNTIME: LazyLock<Runtime> = LazyLock::new(|| {
    tokio::runtime::Builder::new_multi_thread()
        .worker_threads(4)       // 4 个 worker 线程
        .thread_name("never-primp-worker")
        .enable_all()
        .build()
        .unwrap()
});

为什么是 4 而不是更多?

Tokio 的 worker 线程处理的是 IO 事件(socket 可读/可写的通知),而不是实际等待数据。HTTP 请求的主要时间消耗在网络 RTT,不是 CPU 计算:

典型 HTTP 请求生命周期:
  建立连接: ~5ms  (CPU: <1ms)
  发送请求: ~0.1ms (CPU: <0.1ms)
  等待响应: ~50ms  (CPU: 0,纯等待)
  读取响应: ~1ms   (CPU: <0.5ms)

4 个 worker 可以同时管理数千个 "等待响应" 状态的 socket,
因为 epoll/IOCP 一次系统调用可以轮询所有就绪事件。

对于 CPU 密集的任务应该用 spawn_blocking,对于 IO 密集的请求任务,4 个 worker 通常已经饱和。增加到 16 个 worker 对 IO bound 场景几乎无提升,反而增加线程切换开销。


4. 连接池:TCP 复用的关键参数

client_builder
    .pool_max_idle_per_host(512)       // 每主机保留 512 条空闲 TCP 连接
    .pool_max_size(2048)               // 全局上限:2048 条
    .pool_idle_timeout(Duration::from_secs(90))  // 90s 内未使用则关闭
    .tcp_keepalive(Duration::from_secs(15))       // SO_KEEPALIVE
    .tcp_keepalive_interval(Duration::from_secs(5))
    .tcp_keepalive_retries(3u32)
    .tcp_nodelay(true);                // 禁用 Nagle 算法

为什么这些参数很重要?

TCP 连接复用(最大收益)

建立一条 TCP+TLS 连接的开销:

TCP 三次握手:  ~10ms (1 RTT)
TLS 1.3 握手: ~15ms (1 RTT)
合计:          ~25ms

如果每个请求都新建连接(pool 为 0),100 个请求就浪费 2500ms 在握手上。连接池让同一主机的请求复用已建立的连接,第 2 次请求开始几乎没有建连开销。

为什么每主机 512 空闲连接?

对于爬虫场景,可能同时对同一主机发起大量并发请求(比如爬取一个网站的 100 个页面)。池大小决定了"瞬间并发"能复用多少连接:

  • 太小(如 10):超出部分需重新建连,浪费 25ms/请求
  • 512:几乎不会出现需要新建连接的情况

TCP Keepalive(连接稳定性)

没有 Keepalive 的问题:
  服务器/NAT/防火墙在 60-120s 内无流量会 silently drop 连接
  下次使用这条"死连接"时:RST 或超时,请求失败

SO_KEEPALIVE 工作原理:
  每 15s 发一个 TCP ACK 探测包(几乎无流量)
  服务器响应 → 连接确认活跃,重置超时计时器
  服务器无响应 → 5s 后重试,最多 3 次,才判定连接断开

效果:空闲连接保持真正可用,避免"僵尸连接"导致的请求失败

TCP_NODELAY(降低小包延迟)

Nagle 算法会把小数据包积攒到 MSS(约 1460 字节)再发送,降低延迟对 HTTP 不友好。tcp_nodelay(true) 禁用它,每次 write() 立即发送,降低请求延迟约 10-40ms。


5. Cookie Jar 的 RFC 6265 实现

wreq 的 Jar 内部结构:

HashMap<domain, HashMap<path, CookieJar>>
   ↑ 按 (domain, path) 二级索引存储

子域名 Cookie 共享(domain_match)

fn domain_match(host: &str, domain: &str) -> bool {
    host == domain                          // 完全匹配
    || (host.len() > domain.len()
        && host.ends_with(domain)
        && host.as_bytes()[host.len() - domain.len() - 1] == b'.')
    //  ↑ 确保是真子域名:api.example.com 匹配 example.com
    //    但 notexample.com 不匹配 example.com
}

查询 api.example.com 的 cookie 时,遍历所有 domain key 做 domain_match:

  • example.com → 匹配,返回其 cookie
  • api.example.com → 完全匹配,也返回

读写锁而非互斥锁

store: Arc<RwLock<HashMap<...>>>
//         ↑ 读写锁

// 查询时(大多数操作):多个线程并发读,互不阻塞
store.read().get(host)...

// 修改时(Set-Cookie 响应):独占写锁
store.write().entry(domain).or_default()...

爬虫场景下读(发请求带 Cookie)远多于写(收到 Set-Cookie),RwLock 比 Mutex 在并发读时效率高得多。


6. HTTP/2 连接序言合并(反检测关键)

现代风控系统会检测 HTTP/2 握手时第一次 TCP 应用数据的大小。真实浏览器(如 Safari)会将连接序言、SETTINGS、WINDOW_UPDATE、首个 HEADERS 帧合并为一次 TCP 突发

真实 Safari 握手:
  第 1 次 TCP 应用数据 [424 bytes]:
    PRI * HTTP/2.0\r\n\r\nSM\r\n\r\n  (24 bytes, 连接序言)
    SETTINGS frame                     (51 bytes)
    WINDOW_UPDATE frame                (13 bytes)
    HEADERS frame                     (~336 bytes, 首个请求)
  → 风控检测通过 ✅

旧版实现握手(显式 flush 导致拆包):
  第 1 次 TCP 应用数据 [70 bytes]:
    PRI * HTTP/2.0\r\n\r\nSM\r\n\r\n  (24 bytes)
    SETTINGS frame                     (51 bytes)
    WINDOW_UPDATE frame                (13 bytes)
  第 2 次 TCP 应用数据 [~298 bytes]:
    HEADERS frame
  → 风控检测失败 ❌  "[!] Safari detected but invalid SM packet (Len=70). Marking as bot."

never_primp 的底层 HTTP/2 实现移除了连接建立时的提前 flush,确保连接序言和首个请求帧在同一 TCP 段中发出,与浏览器行为完全一致。


7. 重试预算机制

// 内置令牌桶重试预算
let policy = RetryPolicy::default()
    .max_retries_per_request(2);  // 每请求最多重试 2 次

wreq 的重试策略内置了预算限制(默认 20% 额外负载):

假设发出 1000 个请求:
  正常请求: 1000
  允许的重试: 1000 × 20% = 200

如果某段时间重试过多(>200),
预算耗尽,后续请求即使失败也不再重试,
避免雪崩效应(retry storm)导致服务器更不稳定。

这比简单的 for _ in range(3): try: request() 更智能,在大并发场景下保护目标服务器。


8. 头部顺序控制(anti-bot 核心)

现代风控系统(Cloudflare、Akamai、PerimeterX)会检测请求头的顺序作为 bot 指纹:

真实 Chrome 143 的头部顺序:
  :method: GET
  :authority: example.com
  :scheme: https
  :path: /
  sec-ch-ua: ...
  sec-ch-ua-mobile: ?0
  sec-ch-ua-platform: "Windows"
  upgrade-insecure-requests: 1
  user-agent: Mozilla/5.0...
  accept: text/html,...
  sec-fetch-site: none
  sec-fetch-mode: navigate
  sec-fetch-user: ?1
  sec-fetch-dest: document
  accept-encoding: gzip, deflate, br, zstd
  accept-language: zh-CN,...

never_primp 用 OrigHeaderMap 记录头部插入顺序:

// 普通 HeaderMap 只保证 O(1) 查找,不保证顺序
// OrigHeaderMap 是有序列表,精确控制发送顺序
let mut orig_headers = OrigHeaderMap::new();
for (key, _) in client_headers.iter() {
    orig_headers.insert(key.clone());  // 保留插入顺序
}
request_builder = request_builder.orig_headers(orig_headers);

这确保了发出去的 TCP 字节流中头部顺序与真实浏览器完全一致。


Cookie 管理

client.cookies 返回一个 RequestsCookieJar 对象,提供类 dict 接口,行为与 requests.Session.cookies 一致。内部分为两层:

  • 全局 Cookie:无域名限定,随所有请求发送
  • 域名 Cookie:由 Set-Cookie 响应头自动写入,或手动通过 set(domain=…) 添加,按 RFC 6265 规则匹配

自动跨子域名共享

client = never_primp.Client(impersonate="chrome_143")

# 登录后,服务器设置 domain=.example.com 的 Cookie
client.get("https://example.com/login")  # 自动存储 Set-Cookie

# 访问子域名时,这些 Cookie 自动发送(RFC 6265)
client.get("https://api.example.com/data")   # 自动带 Cookie
client.get("https://cdn.example.com/asset")  # 自动带 Cookie

全局 Cookie 操作(类 dict)

jar = client.cookies

# 读写删(全局 Cookie,随所有请求发送)
jar["token"] = "abc"
val = jar["token"]
del jar["token"]
"token" in jar           # True / False

# 批量读写
jar.update({"a": "1", "b": "2"})
print(jar.get_dict())    # {"a": "1", "b": "2"}

# 遍历
for name, value in jar.items():
    print(name, value)

jar.clear_global()       # 只清空全局 Cookie
jar.clear_jar()          # 只清空域名 Cookie
jar.clear()              # 清空所有

域名 Cookie 操作

# 设置域名 Cookie(只发送给匹配的域名,RFC 6265)
client.cookies.set("auth_token", "eyJhbGci...",
                   domain="example.com", path="/")

# 查询会发送到某 URL 的全部 Cookie
cookies = client.cookies.get_cookies_for_url("https://api.example.com/data")

# 按名称跨域名/路径查找(适用于不知道确切 path 的情况)
val = client.cookies.find("sec_cpt")

# 查看所有域名 Cookie 的完整元数据
for name, value, domain, path in client.cookies.get_jar_cookies():
    print(f"[{domain}{path}] {name}={value}")

跨会话 Cookie 持久化

import json

# 会话一:登录
client = never_primp.Client(impersonate="chrome_143")
client.get("https://example.com/login")

# 导出并保存(包含全局 Cookie 和域名 Cookie)
with open("session.json", "w") as f:
    json.dump(client.export_cookies(), f)

# ─── 程序重启 ───

# 会话二:恢复登录状态
client2 = never_primp.Client(impersonate="chrome_143")
with open("session.json") as f:
    client2.import_cookies([tuple(c) for c in json.load(f)])

# 直接访问需要登录的页面
r = client2.get("https://example.com/dashboard")

浏览器指纹伪装

支持的浏览器(100+ 配置)

浏览器 版本范围 别名
Chrome 100–145 "chrome" → 最新
Edge 101–145 "edge" → 最新
Firefox 109–147 "firefox" → 最新
Safari macOS 15.3–26.2 "safari" → 最新
Safari iOS 16.5–26.2 "safari_ios" → 最新
Safari iPad 18–26.2 "safari_ipad" → 最新

Safari 26+ TLS 说明:Safari 26.x 使用 BoringSSL 后端,相比旧版有以下变化:

  • Cipher suites 顺序调整为 AES-256-GCM → ChaCha20 → AES-128-GCM
  • 支持 X25519MLKEM768 后量子混合密钥交换(supported_groups + key_share
  • supported_versions 仅包含 TLS 1.2 和 TLS 1.3(不再宣告 TLS 1.0/1.1)
  • accept-encoding 值更新为 gzip, deflate, br, zstd(新增 zstd) | Opera | 116–119 | "opera" → 最新 | | OkHttp | 3.9–5 | "okhttp" → 最新 |

伪装内容

client = never_primp.Client(
    impersonate="chrome_143",
    impersonate_os="windows",   # windows / macos / linux / android / ios
)

每个配置包含:

  • TLS 指纹:cipher suites 顺序、TLS extensions、椭圆曲线、签名算法(JA3/JA4)
  • HTTP/2 指纹:SETTINGS 帧参数、WINDOW_UPDATE、HEADERS 帧顺序(AKAMAI 指纹)
  • 请求头集合:与该浏览器版本完全一致的默认头部(含正确的 accept-encoding 值与位置)
  • 请求头顺序:精确匹配浏览器的头部发送顺序
  • H2 连接预热合并:连接序言 + SETTINGS + WINDOW_UPDATE 与首个 HEADERS 帧合并为单次 TCP 突发,与真实浏览器行为一致

Cookie 分割(HTTP/2 浏览器行为)

# HTTP/2 中浏览器将每个 Cookie 作为独立的 Header Frame 字段发送
client = never_primp.Client(
    impersonate="chrome_143",
    split_cookies=True,     # 默认 True(Python 层)
)

# 发出的 HTTP/2 HEADERS 帧:
# cookie: session=abc
# cookie: user_id=123
# cookie: csrf_token=xyz

API 参考

Client 构造参数

client = never_primp.Client(
    # 认证
    auth=("username", "password"),  # Basic Auth
    auth_bearer="token",            # Bearer Auth

    # 网络
    proxy="socks5://127.0.0.1:1080",
    timeout=30.0,                   # 总超时(秒)
    verify=True,                    # SSL 证书验证
    ca_cert_file="/path/to/ca.pem", # 自定义 CA 证书

    # 浏览器伪装
    impersonate="chrome_143",
    impersonate_os="windows",       # windows/macos/linux/android/ios

    # HTTP 协议
    http1_only=False,               # 强制 HTTP/1.1
    http2_only=False,               # 强制 HTTP/2
    https_only=False,               # 拒绝 HTTP 请求
    follow_redirects=True,
    max_redirects=20,

    # Cookie
    cookie_store=True,              # 启用持久 Cookie
    split_cookies=True,             # HTTP/2 风格 Cookie 头

    # 重试
    max_retries=2,                  # 网络错误时的最大重试次数

    # 默认值(所有请求共享)
    headers={"X-Custom": "value"},
    params={"version": "2"},
)

请求方法

# 所有方法支持相同的参数集
r = client.get(url,
    params={"q": "python"},
    headers={"Accept": "application/json"},
    cookies={"session": "abc"},
    timeout=10.0,
    proxy="http://127.0.0.1:8080",
    verify=False,
    # 请求级别临时覆盖
    impersonate="firefox_147",
    impersonate_os="linux",
)

r = client.post(url,
    json={"key": "value"},            # JSON 请求体
    # data={"key": "value"},          # Form 表单
    # content=b"raw bytes",           # 原始字节
    # files={"file": "/path/to/file"},# 文件上传(multipart)
)

Response 对象

r = client.get("https://httpbin.org/get")

r.status_code      # int: 200
r.url              # str: 最终 URL(重定向后)
r.headers          # dict[str, str]: 响应头
r.cookies          # dict[str, str]: Set-Cookie 解析结果
r.content          # bytes: 原始响应体
r.text             # str: 自动编码检测后的文本
r.encoding         # str: 检测到的编码
r.json()           # Any: JSON 解析

Cookie 管理(通过 client.cookies

client.cookies 返回 RequestsCookieJar,提供以下接口:

jar = client.cookies  # RequestsCookieJar

# ── 类 dict 接口(全局 Cookie)──────────────────────────────────
jar["name"]                        # → str,获取
jar["name"] = "value"              # 设置
del jar["name"]                    # 删除
"name" in jar                      # → bool
len(jar)                           # → int
iter(jar)                          # 遍历所有 name

jar.get(name, default=None)        # → str | None
jar.update({"k": "v"})            # 批量设置全局 Cookie
jar.keys()                         # → list[str]
jar.values()                       # → list[str]
jar.items()                        # → list[tuple[str, str]]
jar.get_dict()                     # → dict[str, str],全部 Cookie 序列化

# ── 域名 Cookie ─────────────────────────────────────────────────
jar.set(name, value,               # 设置域名 Cookie
        domain=None, path=None)
jar.get_jar_cookies()              # → list[tuple[name, value, domain, path]]
jar.get_cookies_for_url(url)       # → dict[str, str],RFC 6265 匹配
jar.find(name, default=None)       # → str | None,跨域名/路径查找

# ── 清空 ─────────────────────────────────────────────────────────
jar.clear_global()                 # 清空全局 Cookie
jar.clear_jar()                    # 清空域名 Cookie
jar.clear()                        # 清空全部

# ── 跨会话持久化(在 Client 上)────────────────────────────────
client.export_cookies()            # → list[tuple[name, value, domain, path]]
client.import_cookies([(name, value, domain, path)])  # → None

请求头管理方法

client.headers = {"User-Agent": "bot"}       # 设置(替换全部)
client.headers                               # 读取
client.set_header("X-Custom", "value")       # 设置单个
client.get_header("X-Custom")               # 读取单个 → str | None
client.headers_update({"Accept": "*/*"})     # 合并更新
client.delete_header("X-Custom")             # 删除单个
client.clear_headers()                       # 清空全部

便利函数(无需创建 Client)

import never_primp

r = never_primp.get("https://httpbin.org/get")
r = never_primp.post("https://httpbin.org/post", json={"a": 1})
r = never_primp.put(url, data={"k": "v"})
r = never_primp.delete(url)
r = never_primp.patch(url, json={})
r = never_primp.head(url)
r = never_primp.options(url)

AsyncClient(异步接口)

import asyncio
import never_primp

async def main():
    async with never_primp.AsyncClient(
        impersonate="chrome_143",
        max_retries=2,
    ) as client:
        r = await client.get("https://httpbin.org/get")
        print(r.json())

asyncio.run(main())

开发

# 环境依赖
pip install maturin

# 开发构建(快速迭代)
maturin develop

# 发布构建(完整优化)
maturin develop --release

# 代码检查
cargo check
cargo clippy
cargo fmt

# 运行示例
python example/concurrent_requests.py
python example/cookie_management.py
python example/browser_impersonation.py

架构概览

Python 调用  client.get(url)
      ↓
Client.__init__.py   # Python 封装层(ergonomics)
      ↓
RClient.request()   # PyO3 Rust 类(src/client.rs)
      ↓
py.detach()         # 释放 Python GIL
      ↓
RUNTIME.block_on()  # 进入 Tokio 异步运行时(4 workers)
      ↓
wreq::Client        # Rust HTTP 客户端(内部 Arc,无锁 clone)
      ↓
wreq 连接池          # TCP 复用 + TLS 会话复用
      ↓
目标服务器
      ↓
Response::from_wreq_response()  # 懒加载转换(src/response.rs)
      ↓
返回 Python,GIL 重新获取

License

MIT

Project details


Download files

Download the file for your platform. If you're not sure which to choose, learn more about installing packages.

Source Distribution

never_primp-2.5.0.tar.gz (108.3 kB view details)

Uploaded Source

Built Distributions

If you're not sure about the file name format, learn more about wheel file names.

never_primp-2.5.0-pp311-pypy311_pp73-manylinux_2_28_x86_64.whl (3.4 MB view details)

Uploaded PyPymanylinux: glibc 2.28+ x86-64

never_primp-2.5.0-cp39-abi3-win_amd64.whl (3.3 MB view details)

Uploaded CPython 3.9+Windows x86-64

never_primp-2.5.0-cp39-abi3-win32.whl (2.9 MB view details)

Uploaded CPython 3.9+Windows x86

never_primp-2.5.0-cp39-abi3-musllinux_1_2_x86_64.whl (10.0 MB view details)

Uploaded CPython 3.9+musllinux: musl 1.2+ x86-64

never_primp-2.5.0-cp39-abi3-manylinux_2_28_x86_64.whl (3.4 MB view details)

Uploaded CPython 3.9+manylinux: glibc 2.28+ x86-64

never_primp-2.5.0-cp39-abi3-macosx_11_0_arm64.whl (3.0 MB view details)

Uploaded CPython 3.9+macOS 11.0+ ARM64

never_primp-2.5.0-cp39-abi3-macosx_10_12_x86_64.whl (3.1 MB view details)

Uploaded CPython 3.9+macOS 10.12+ x86-64

File details

Details for the file never_primp-2.5.0.tar.gz.

File metadata

  • Download URL: never_primp-2.5.0.tar.gz
  • Upload date:
  • Size: 108.3 kB
  • Tags: Source
  • Uploaded using Trusted Publishing? No
  • Uploaded via: maturin/1.12.6

File hashes

Hashes for never_primp-2.5.0.tar.gz
Algorithm Hash digest
SHA256 4fb9a4b9d57913bf02a6d7ff438131dc6355d83413074db3745fff5990a5a349
MD5 faf23f8914304a40154e65231c0fa70c
BLAKE2b-256 95357671f04a6b593c1fae04ea7dd295749d4367b5a56943469d185be16ee3c7

See more details on using hashes here.

File details

Details for the file never_primp-2.5.0-pp311-pypy311_pp73-manylinux_2_28_x86_64.whl.

File metadata

File hashes

Hashes for never_primp-2.5.0-pp311-pypy311_pp73-manylinux_2_28_x86_64.whl
Algorithm Hash digest
SHA256 c5c1802a038156c2c1ed8e6e1dcdb874e36372f45bae63b04dd11200f708e614
MD5 f558d0da810178553efca00bfe8dc1dc
BLAKE2b-256 753eb6d21bd708b844212ef301508b0a6a734b6828d608d0a05d22b14578fd5b

See more details on using hashes here.

File details

Details for the file never_primp-2.5.0-cp39-abi3-win_amd64.whl.

File metadata

File hashes

Hashes for never_primp-2.5.0-cp39-abi3-win_amd64.whl
Algorithm Hash digest
SHA256 2273f776cf7dd9ae2992e6e25d14ffaa31365f0533d9d8e02b14f60abd153e22
MD5 ff9869965c9de6fbfeaca8779dfd3f1c
BLAKE2b-256 dc68f9d16cc22ac8ea4fb8301b62cbe2a81f8a3cfdde1c015b6b6119437a0685

See more details on using hashes here.

File details

Details for the file never_primp-2.5.0-cp39-abi3-win32.whl.

File metadata

  • Download URL: never_primp-2.5.0-cp39-abi3-win32.whl
  • Upload date:
  • Size: 2.9 MB
  • Tags: CPython 3.9+, Windows x86
  • Uploaded using Trusted Publishing? No
  • Uploaded via: maturin/1.12.6

File hashes

Hashes for never_primp-2.5.0-cp39-abi3-win32.whl
Algorithm Hash digest
SHA256 7e0ee04a23d2b00871b94d4d2c2afd764fa60fc90236ddacf15fce5f86536071
MD5 da02e83ff3717faa2721f4b960dbef77
BLAKE2b-256 a94684dee04062ebf0229587ee5ae15a1238114a8e77f075da97bfce52d1fedc

See more details on using hashes here.

File details

Details for the file never_primp-2.5.0-cp39-abi3-musllinux_1_2_x86_64.whl.

File metadata

File hashes

Hashes for never_primp-2.5.0-cp39-abi3-musllinux_1_2_x86_64.whl
Algorithm Hash digest
SHA256 ea96f9c1a0ab20bc7a7bcb5e50aac3f08eccab658d18423aaf94520ca28fb37f
MD5 3a403009a734f33b0a3bc39d6b089cc5
BLAKE2b-256 b3d91aebc7dc3f51a6a78e991574e7ed17134ef31898c01a28afd3301ee370be

See more details on using hashes here.

File details

Details for the file never_primp-2.5.0-cp39-abi3-manylinux_2_28_x86_64.whl.

File metadata

File hashes

Hashes for never_primp-2.5.0-cp39-abi3-manylinux_2_28_x86_64.whl
Algorithm Hash digest
SHA256 617ef3fdeb5041f99a495a5a59de9e4b0290c1c277e4ab8b5654398e5f6baae8
MD5 cf1159ce559011793a5c9448e7bada2a
BLAKE2b-256 76bc5589059ebe48b31993dfff02d5a0e9b01416c895eae6ca6894e048c8c685

See more details on using hashes here.

File details

Details for the file never_primp-2.5.0-cp39-abi3-macosx_11_0_arm64.whl.

File metadata

File hashes

Hashes for never_primp-2.5.0-cp39-abi3-macosx_11_0_arm64.whl
Algorithm Hash digest
SHA256 565367508569b8d0fcb8206eefd1ce661ac82679c46a0e7272e68c755b47400c
MD5 540818c250103f6df830388311c1d6fd
BLAKE2b-256 baedf06f0c77fae172c87751f1a8f4929d9963549bc4cd593f5ddee9cdae6c97

See more details on using hashes here.

File details

Details for the file never_primp-2.5.0-cp39-abi3-macosx_10_12_x86_64.whl.

File metadata

File hashes

Hashes for never_primp-2.5.0-cp39-abi3-macosx_10_12_x86_64.whl
Algorithm Hash digest
SHA256 d687bff1e362f3483585ee67d090115e3a90b8d67f5699ff5282bf4f66dda1be
MD5 95b91585f5f584efb07f57d8dcaaba2e
BLAKE2b-256 754926e085e2f26c7f258d9bc36bc0f52de705c97b5ad061d59055eee8970930

See more details on using hashes here.

Supported by

AWS Cloud computing and Security Sponsor Datadog Monitoring Depot Continuous Integration Fastly CDN Google Download Analytics Pingdom Monitoring Sentry Error logging StatusPage Status page