Skip to main content

V2PH downloader

Project description

V2PH Downloader

微圖坊下載器

特色

📦 開箱即用:不用下載 Chrome driver
🌐 跨平台:全平台支援
🔄 雙引擎:支援 DrissionPage 和 Selenium 兩種自動化選項

使用方式

前置需求

  1. 安裝 Chrome 瀏覽器
  2. Python 版本 > 3.10

首次執行時需要手動登入網站。在 .env 檔案中填入帳號密碼後腳本可以自動登入。

pip install v2dl
v2dl <url>

嘗試第一次下載

# 單一相簿:有村架純《私の好きな町。》
v2dl "https://www.v2ph.com/album/Weekly-Young-Jump-2015-No15"

# 相簿列表:乃木板46
v2dl "https://www.v2ph.com/category/nogizaka46"

設定

會尋找系統設定目錄中是否存在 config.yaml 以及 .env 設定檔,兩者格式請參照根目錄的範例。

裡面可以修改捲動長度、捲動步長與速率限制等設定:

  • download_dir: 設定下載位置,預設系統下載資料夾。
  • download_log: 紀錄已下載的 album 頁面網址,重複的會跳過,該文件預設位於系統設定目錄。
  • system_log: 設定程式執行日誌的位置,該文件預設位於系統設定目錄。
  • rate_limit: 下載速度限制,預設 400 夠用也不會被封鎖。
  • chrome/exec_path: 系統的 Chrome 程式位置。

系統設定目錄位置:

  • Windows: C:\Users\xxx\AppData\v2dl
  • Linux, macOS: /Users/xxx/.config/v2dl

參數

  • url: 下載目標的網址。
  • --bot: 選擇自動化工具。drission 比較不會被機器人檢測封鎖。
  • --dry-run: 僅進行模擬下載,不會實際下載檔案。
  • --terminate: 程式結束後是否關閉 Chrome 視窗。
  • -q: 安靜模式。
  • -v: 偵錯模式。
  • --verbose: 設定日誌顯示等級,數值為 1~5 之間。

在腳本中使用

import v2dl
import logging

# setup config
your_custom_config = {
    "download": {
        "min_scroll_length": 100,
        "max_scroll_length": 100,
        # ...
    },
}
your_custom_config_dir = "/path/to/config/dir"

# Initialization
log_level = logging.INFO
logger = logging.getLogger(__name__)
config_manager = v2dl.ConfigManager(your_custom_config, your_custom_config_dir)
app_config = config_manager.load()
download_service = v2dl.ThreadingService(logger)

runtime_config = RuntimeConfig(
    url=args.url,
    bot_type=args.bot_type,
    use_chrome_default_profile=args.use_default_chrome_profile,
    terminate=args.terminate,
    download_service=download_service,
    dry_run=args.dry_run,
    logger=logger,
    log_level=log_level,
    no_skip=args.no_skip,
)

# (Optional) setup logging format
v2dl.setup_logging(runtime_config.log_level, log_path=app_config.paths.system_log)

# Instantiate and start scraping
web_bot = get_bot(runtime_config, app_config)
scraper = ScrapeManager(runtime_config, app_config, web_bot)
scraper.start_scraping()

補充

  1. 這不是破解腳本,只是下載工具,該有的限制還是有。
  2. 換頁或者下載速度太快都可能觸發封鎖,目前的設定已經均衡下載速度和避免封鎖了。
  3. 請謹慎使用,不要又把好網站搞到關掉了,難得有資源收錄完整的。
  4. 從頁面中間開始下載不會被視作重複下載,以方便補齊缺失檔案。
  5. 會不會被封鎖也有一部分取決於網路環境,不要開 VPN 下載比較安全。

Project details


Download files

Download the file for your platform. If you're not sure which to choose, learn more about installing packages.

Source Distribution

v2dl-0.0.5.tar.gz (34.7 kB view details)

Uploaded Source

Built Distribution

v2dl-0.0.5-py3-none-any.whl (39.0 kB view details)

Uploaded Python 3

File details

Details for the file v2dl-0.0.5.tar.gz.

File metadata

  • Download URL: v2dl-0.0.5.tar.gz
  • Upload date:
  • Size: 34.7 kB
  • Tags: Source
  • Uploaded using Trusted Publishing? Yes
  • Uploaded via: twine/5.1.1 CPython/3.12.7

File hashes

Hashes for v2dl-0.0.5.tar.gz
Algorithm Hash digest
SHA256 08483d527f45a0bba4d662c06b0b6253c897431cab4120aacb9e6d95ac70e4fe
MD5 16a9a67474004b759929163de5923794
BLAKE2b-256 8008a6a4d47021bf170248ed9eb465dee9a4856e5435095db4ddd794562c6fc9

See more details on using hashes here.

File details

Details for the file v2dl-0.0.5-py3-none-any.whl.

File metadata

  • Download URL: v2dl-0.0.5-py3-none-any.whl
  • Upload date:
  • Size: 39.0 kB
  • Tags: Python 3
  • Uploaded using Trusted Publishing? Yes
  • Uploaded via: twine/5.1.1 CPython/3.12.7

File hashes

Hashes for v2dl-0.0.5-py3-none-any.whl
Algorithm Hash digest
SHA256 c6e108962d820170dc2f495adb37e35906f319f88ad7444ad8797ac3f550b0cf
MD5 faa2e7d145b536ce05d7ed304d2d2044
BLAKE2b-256 f46a9a968f0b5d8ca00bffef29d8ae3ebdfb22b2159366a5e01aeec4a8c6a515

See more details on using hashes here.

Supported by

AWS AWS Cloud computing and Security Sponsor Datadog Datadog Monitoring Fastly Fastly CDN Google Google Download Analytics Microsoft Microsoft PSF Sponsor Pingdom Pingdom Monitoring Sentry Sentry Error logging StatusPage StatusPage Status page