Skip to main content

Add your description here

Project description

quickplay

Overview - 概要

quickplay is a scraping utility library built on Playwright and selectolax. quickplayはPlaywrightとselectolaxをベースにしたスクレイピングユーティリティライブラリです。

  • PlayPage — Playwright Page のラッパー。スクレイピング用。
  • SelectParser — selectolax HTMLParser のラッパー。ローカル抽出用。
  • browse() — Playwright(Chromium)起動ランナー。
  • browse_camoufox() — Camoufox(Firefox)起動ランナー。bot検知対策向け。
  • その他ユーティリティ — FromHere, sleep_between, append_csv, write_csv, hash_name, save_html

Requirements - 必要条件

  • Python 3.12 or higher
  • Libraries: playwright, selectolax, pandas, camoufox(自動インストール)
  • Browser binaries(別途インストールが必要)

Installation - インストール

pip

pip install quickplay

uv (推奨)

uv add quickplay

ブラウザバイナリを別途インストールしてください。

Playwright(Chromium)

pip

python -m playwright install chromium

uv (推奨)

uv run playwright install chromium

Camoufox(Firefox)

pip

camoufox fetch

uv (推奨)

uv run camoufox fetch

Quick Reference - 主要メソッド一覧

PlayPage のメソッド

  • ss(selector: str) -> list[ElementHandle]
    指定したCSSセレクタにマッチするすべての要素をリストで返します。
    例: links = p.ss('a')

  • s(selector: str) -> ElementHandle | None
    指定したCSSセレクタにマッチする最初の要素を返します。見つからなければ None
    例: title_elem = p.s('h1')

  • text(elem: ElementHandle | None) -> str | None
    要素からテキスト内容を取得します(前後の空白は除去されます)。
    例: title = p.text(p.s('h1'))

  • attr(attr_name: str, elem: ElementHandle | None) -> str | None
    要素の指定された属性値を取得します。
    例: href = p.attr('href', link_elem)

  • url(elem: ElementHandle | None) -> str | None
    リンク要素 (<a>) の href絶対URLに正規化して返します。無効なリンク(javascript: など)は除外されます。
    例: next_url = p.url(p.s('a.next'))

  • goto(url: str | None) -> bool
    指定したURLに移動します。成功すれば True、失敗すれば False を返します。
    例: if p.goto('https://example.com'): ...

SelectParser のメソッド

  • nxt(self, selector: str, node: LexborNode | None) -> LexborNode | None
    ノードから、セレクタに一致する最初の弟ノードを取得します。

  • txt(self, node: LexborNode | None) -> str | None
    ノードからテキスト内容を(子孫ノードまで全て含め)取得します(前後の空白は除去されます)。

ユーティリティ関数

  • sleep_between(a: float, b: float) -> None
    ab 秒の間でランダムに待機します。サーバーに負荷をかけないための基本的なマナーです。
    例: sleep_between(1, 2)

  • append_csv(path: Path | str, row: dict) -> None
    dict 形式のデータを1行としてCSVファイルに追記します。ファイルが存在しない場合はヘッダーも自動で書き込みます。
    例: append_csv('data.csv', {'name': '太郎', 'age': 20})

  • browse(fn: Callable[[Page], None], ...) -> None
    Playwrightのブラウザを起動し、引数で渡した関数を実行します。headlessuser_agent などのオプションを指定できます。
    例: browse(scrape, headless=True, block_resources={'image'})
    引数:

    def browse(
        # scrape(page) のような関数を渡す。
        fn: Callable[[Page], None],
        *,
        # ヘッドレスモードにするか。
        headless: bool = False,
        # ブラウザチャンネル('chrome' など)。
        channel: str = 'chrome',
        # {'width': 1920, 'height': 1080} など。Noneなら未設定。
        viewport: dict | None = {'width': 1920, 'height': 1080},
        # User-Agent文字列。Noneなら未設定。chrome://version/で確認できる。
        user_agent: str | None = None,
        # Accept-Languageヘッダー。Noneなら未設定。
        accept_language: str | None = 'ja-JP,ja;q=0.9',
        # デフォルトタイムアウト(ミリ秒)。
        timeout: int = 15000,
        # ブロックするリソースタイプ。例: {'image'}。
        block_resources: set[str] | None = None,
    ) -> None:
    
  • browse_camoufox(fn: Callable[[Page], None], ...) -> None
    Camoufox(Firefox)でブラウザを起動し、引数で渡した関数を実行します。bot検知が厳しいサイト向け。
    例: browse_camoufox(scrape, humanize=True, block_images=True)
    引数:

    def browse_camoufox(
        # scrape(page) のような関数を渡す。
        fn: Callable[[Page], None],
        *,
        # ヘッドレスモードにするか。
        headless: bool | Literal['virtual'] = False,
        # ブラウザのロケール(言語・地域設定)を指定
        # 英語サイト中心なら `'en-US,en'` への変更を検討
        locale: str | list[str] | None = 'ja-JP,ja',
        # カーソルの動きを人間らしく模倣するかどうか。
        # `True`(デフォルト): デフォルト設定(最大約1.5秒)で有効化。
        # `False`: 無効。カーソルが瞬時に移動する。高速化したい場合やカーソル操作をしないスクレイピングに
        # `float`: カーソル移動の最大秒数を指定して有効化。例: `2.0` なら最大2秒かけて移動。
        humanize: bool | float = True,
        # 画像リソースのリクエストをすべてブロックするかどうか。
        # `False`(デフォルト): 画像を読み込む。
        # `True`: 画像をすべてブロック。
        block_images: bool = False,
        # `False`(デフォルト): COOPを有効のまま。通常はこれでよい。
        # `True`: COOPを無効化。主な用途はCloudflareのTurnstile(チェックボックス認証)の突破。
        # 注意: セキュリティポリシーを緩める設定なので、必要な場合だけ使う。
        disable_coop: bool = False,
        # デフォルトタイムアウト(ミリ秒)。
        timeout: int = 15000,
        **kwargs,
    ) -> None:
    

Basic Usage - 基本的な使い方

from quickplay import *

fh = FromHere(__file__)

def scrape(page):
    p = PlayPage(page)
    p.goto('https://www.foobarbaz1.jp')

    pref_urls = [p.url(e) for e in p.ss('li.item > ul > li > a')]

    classroom_urls = []
    for i, url in enumerate(pref_urls, 1):
        print(f'{i}/{len(pref_urls)} pref_urls')
        if not p.goto(url):
            continue
        sleep_between(1, 2)
        links = [p.url(e) for e in p.ss('.school-area h4 a')]
        classroom_urls.extend(links)

    for i, url in enumerate(classroom_urls, 1):
        print(f'{i}/{len(classroom_urls)} classroom_urls')
        if not p.goto(url):
            continue
        sleep_between(1, 2)
        append_csv(fh('csv/out.csv'), {
            'URL': page.url,
            '教室名': p.text(p.s('h1 .text01')),
            '住所': p.text(p.s('.item .mapText')),
            '電話番号': p.text(p.s('.item .phoneNumber')),
            'HP': p.url(p.s_in('a', p.next(p.s_re('th', 'ホームページ')))),
        })


if __name__ == '__main__':
    browse(
        scrape,
        user_agent='Mozilla/5.0 ...',
        block_resources={'image'},
    )

Save HTML while scraping - スクレイピングしながらHTMLを保存する

from quickplay import *

fh = FromHere(__file__)

def scrape(page):
    p = PlayPage(page)
    p.goto('https://www.foobarbaz1.jp')

    item_urls = [p.url(e) for e in p.ss('ul.items > li > a')]

    for i, url in enumerate(item_urls, 1):
        print(f'{i}/{len(item_urls)} item_urls')
        if not p.goto(url):
            continue
        sleep_between(1, 2)
        file_name = f'{hash_name(url)}.html'
        if not save_html(fh('html') / file_name, page.content()):
            continue
        append_csv(fh('outurlhtml.csv'), {
            'URL': url,
            'HTML': file_name,
        })

if __name__ == '__main__':
    browse(scrape, block_resources={'image'})

Scrape from local HTML files - 保存済みHTMLからスクレイピングしてCSVに出力する

import pandas as pd

from quickplay import *

fh = FromHere(__file__)
p = SelectParser()

df = pd.read_csv(fh('outurlhtml.csv'))
results = []
for i, (url, path) in enumerate(zip(df['URL'], df['HTML']), 1):
    print(i)
    if not p.load(path):
        continue
    results.append({
        'URL': url,
        '教室名': p.txt(p.s('h1 .text02')),
        '住所': p.txt(p.s('.item .mapText')),
        '所在地': p.txt(p.nxt('dd', p.s_re('dt', r'所在地'))),
    })
write_csv(fh('outhtml.csv'), results)

License - ライセンス

MIT

Project details


Download files

Download the file for your platform. If you're not sure which to choose, learn more about installing packages.

Source Distribution

quickplay-1.2.3.tar.gz (8.1 kB view details)

Uploaded Source

Built Distribution

If you're not sure about the file name format, learn more about wheel file names.

quickplay-1.2.3-py3-none-any.whl (8.2 kB view details)

Uploaded Python 3

File details

Details for the file quickplay-1.2.3.tar.gz.

File metadata

  • Download URL: quickplay-1.2.3.tar.gz
  • Upload date:
  • Size: 8.1 kB
  • Tags: Source
  • Uploaded using Trusted Publishing? No
  • Uploaded via: python-requests/2.32.5

File hashes

Hashes for quickplay-1.2.3.tar.gz
Algorithm Hash digest
SHA256 ba9c859b4bfb34f7ebfe4b9ca0ca3320b39a321eac7e24ffbd506c24ea1b415d
MD5 ba30d576bcbfc58f35d4766a0cc48536
BLAKE2b-256 aa3af3f7f120e9c9acf1a8eee2693d6bc7d92bd1ece2ac42497b3bf0c5c94be4

See more details on using hashes here.

File details

Details for the file quickplay-1.2.3-py3-none-any.whl.

File metadata

  • Download URL: quickplay-1.2.3-py3-none-any.whl
  • Upload date:
  • Size: 8.2 kB
  • Tags: Python 3
  • Uploaded using Trusted Publishing? No
  • Uploaded via: python-requests/2.32.5

File hashes

Hashes for quickplay-1.2.3-py3-none-any.whl
Algorithm Hash digest
SHA256 4eb48ab055e5248b825a50e7160be172565d20caff3550d463c69ab3e7837223
MD5 b250aa84b3b7d203af0881258d21fbf3
BLAKE2b-256 8092643f71ef3088b23f0e0b813512cdc106750c44ac8deb6c396a6743651a4c

See more details on using hashes here.

Supported by

AWS Cloud computing and Security Sponsor Datadog Monitoring Depot Continuous Integration Fastly CDN Google Download Analytics Pingdom Monitoring Sentry Error logging StatusPage Status page