Sync-First бібліотека для побудови графу веб-сайтів - просто як requests!
Project description
GraphCrawler
Бібліотека для побудови графу структури веб-сайтів.
Встановлення
pip install graph-crawler
Додаткові залежності:
pip install graph-crawler[playwright] # JavaScript сайти
pip install graph-crawler[embeddings] # Векторизація
pip install graph-crawler[mongodb] # MongoDB storage
pip install graph-crawler[all] # Все
Використання
import graph_crawler as gc
# Базове сканування
graph = gc.crawl("https://example.com", max_depth=2, max_pages=50)
print(f"Сторінок: {len(graph.nodes)}")
print(f"Посилань: {len(graph.edges)}")
# Збереження
gc.save_graph(graph, "site.json")
Async API
import asyncio
import graph_crawler as gc
async def main():
graph = await gc.async_crawl("https://example.com")
return graph
graph = asyncio.run(main())
Параметри crawl()
| Параметр | Default | Опис |
|---|---|---|
max_depth |
3 | Глибина сканування |
max_pages |
100 | Ліміт сторінок |
same_domain |
True | Тільки поточний домен |
request_delay |
0.5 | Затримка між запитами (сек) |
timeout |
300 | Загальний таймаут (сек) |
driver |
"http" | Драйвер: http, playwright |
URL Rules
from graph_crawler import crawl, URLRule
rules = [
URLRule(pattern=r"\.pdf$", should_scan=False),
URLRule(pattern=r"/admin/", should_scan=False),
URLRule(pattern=r"/products/", priority=10),
]
graph = crawl("https://example.com", url_rules=rules)
Операції з графом
# Статистика
stats = graph.get_stats()
# Пошук
node = graph.get_node_by_url("https://example.com/page")
# Об'єднання графів
merged = graph1 + graph2
# Експорт
graph.export_edges("edges.csv", format="csv")
graph.export_edges("graph.dot", format="dot")
Драйвери
| Драйвер | Призначення |
|---|---|
http |
Статичні сайти (default) |
playwright |
JavaScript/SPA сайти |
# Playwright для JS сайтів
graph = gc.crawl("https://spa-site.com", driver="playwright")
Storage
| Тип | Рекомендовано |
|---|---|
memory |
< 1K сторінок |
json |
1K - 20K сторінок |
sqlite |
20K+ сторінок |
mongodb |
Великі проекти |
CLI
graph-crawler crawl https://example.com --max-depth 2
graph-crawler list
graph-crawler info graph_name
Вимоги
- Python 3.11+
Ліцензія
MIT
Project details
Release history Release notifications | RSS feed
Download files
Download the file for your platform. If you're not sure which to choose, learn more about installing packages.
Source Distribution
graph_crawler-4.0.26.tar.gz
(768.8 kB
view details)
Built Distribution
Filter files by name, interpreter, ABI, and platform.
If you're not sure about the file name format, learn more about wheel file names.
Copy a direct link to the current filters
File details
Details for the file graph_crawler-4.0.26.tar.gz.
File metadata
- Download URL: graph_crawler-4.0.26.tar.gz
- Upload date:
- Size: 768.8 kB
- Tags: Source
- Uploaded using Trusted Publishing? No
- Uploaded via: twine/6.2.0 CPython/3.12.5
File hashes
| Algorithm | Hash digest | |
|---|---|---|
| SHA256 |
39e068234f26aeb8b2462075666545201d6090c05f6353ac9b16bf6c0dcc8717
|
|
| MD5 |
be13b12b62d1aa6cddd800fdaaab2b11
|
|
| BLAKE2b-256 |
c0a974db3abb6884da216afc3de60dee3554cac88ed80f342449006a09a19ff3
|
File details
Details for the file graph_crawler-4.0.26-py3-none-any.whl.
File metadata
- Download URL: graph_crawler-4.0.26-py3-none-any.whl
- Upload date:
- Size: 934.2 kB
- Tags: Python 3
- Uploaded using Trusted Publishing? No
- Uploaded via: twine/6.2.0 CPython/3.12.5
File hashes
| Algorithm | Hash digest | |
|---|---|---|
| SHA256 |
7f4b43abc142a0711145b4b944591896d78495c1a117cb857cf593b2a6a1f1cc
|
|
| MD5 |
1aba664abc46e2b974e117e8133269a2
|
|
| BLAKE2b-256 |
915ebb507bfa1ba37327d4f71046790c78b17ff9e1826536b0c059fa27036fc9
|