A simple API to interact with baidu-photo
Project description
pybaiduphoto
一刻相册 API
安装
pip install pybaiduphoto
初始化api
from pybaiduphoto import API
api = API(cookies=cookies)
其中cookies
从网页中抠取,如下:
cookies = {
'BAIDUID': 'F...',
'__yjs_duid': '1...',
'BIDUPSID': 'FD...',
'BDUSS_BFESS': 'lRLNl...',
'STOKEN': 'be2...',
...
}
方便起见,也可以通过browser_cookie3
(注意自己pip安装一下)直接从浏览器中抽取cookies(注意先登陆),以chrome为例:
from pybaiduphoto import API
import browser_cookie3
api = API(cookies = browser_cookie3.chrome() )
获取对象
数据对象
数据对象是指图片或者视频。首先要得到对象的列表信息。因为量比较大,所以信息是分页的。获取第一页的方式如下:
list1 = api.get_self_1page(typeName='Item')
其返回值包含以下内容:
list1.keys()
>>
dict_keys(['items', 'has_more', 'cursor'])
items
是该分页中的对象集合,是一个list。可以直接通过.info
查看对象的信息:
L=list1["items"]
L[0].info
>>
{'fsid': 63.....,
'path': '.....',
'md5': '49dda......',
...
'collect_status': 0}
友情提示:为保持良好的OOP代码结构,不推荐直接使用L[0].info
,内容可能会变化。
对象可以直接下载到本地目录:
L=list1["items"]
L[0].download(DirPath='/Users/XXXX/Desktop')
通过has_more
来判断该页面是否为最后一页。如果不是最后一页,下一页的获得方式为:
if list1['has_more']:
cursor_nextpage = list1['cursor']
list2 = api.get_self_1page(typeName='Item',cursor=cursor_nextpage)
可以删除:
L[0].delete()
high level函数get_self_All(typeName='Item',max=-1)
是对get_self_1page
的一个包装,用于获取所有对象。max
设定最大获取数量,max<=0
对应获取全部。例如(注意,内容多的话可能有点慢):
L = api.get_self_All(typeName='Item')
则L[0]
直接就是一个数据对象。
相册对象
list1 = api.get_self_1page(typeName='Album')
list1.keys()
>>
dict_keys(['items', 'has_more', 'cursor'])
其中has_more
, cursor
意义同上。items中的对象是相册对象
。可以用过append
将图片添加到相册。例如: 将最后一张照片添加到第一个相册:
ilist = api.get_self_1page(typeName='Item')
alist = api.get_self_1page(typeName='Album')
a = alist['items'][0]
a.append( ilist['items'][0] )
也可以添加多个对象,a.append( ilist['items'][0:3] )
可以删除该相册:a.delete()
,默认会删除相册中的子内容。如果只删除相册但是保留子内容,可使用: a.delete(isWithItems=False)
获得相册中的对应数据的方法是:
res = a.get_sub_1page()
返回相册中对应的数据对象。返回内容的key为dict_keys(['items', 'has_more', 'cursor'])
。用法同get_self_1page()
。同时也存在函数a.get_sub_All(max=-1)
获取相册的名字或者ID:
a.getName()
a.getID()
重命名:
a.rename(newName)
设置公告:
a.setNotice("balabala...")
人物相册
用法参考上面的相册对象,只是把typeName
设置成Person
。例如获得所有的人物相册的方式:
pList = api.get_self_All(typeName='Person')
该对象类似与相册对象,不过是百度自动按照人脸分类了。函数类似的还有get_sub_1page
和get_sub_All
,用法同上。
地点相册
用法同上,设置typeName='Location'
事物相册
用法同上,设置typeName='Thing'
API 操作
上传文件
api.upload_1file(filePath='/Users/XXXX/Desktop/test.png')
若要上传到指定相册
api.upload_1file(filePath='/Users/XXXX/Desktop/test.png', album=a)
其中a
是获取相册列表得到的相册,例如a=api.get_self_1page(typeName='Album')['items'][0]
。
创建相册
创建一个名字为test
的相册:
a = api.createNewAlbum(Name='test')
返回的是相册对象(见上面解释)。!!!注意,可以创建名字相同的相册。另外,此处后台来看会用到一个tid
的信息,来唯一标识一个相册。我不知道这个是怎么生成的,目前用一个18位的随机数来代替测试可行。但这带来一个未来失效的风险。有聪明的同学可以帮我研究研究这个tid
从哪里来的。
搜索相册
根据关键词搜索满足条件的相册。
aList = api.albumSearch(keyword="xxxx",limit=30,start=0)
返回值包含aList.keys()
->dict_keys(['items', 'has_more'])
. 所有满足条件的相册对象包含在aList['items']
中。因为这是一个新增加的功能,所以官方应该是内部做了什么标记。很早之前创建的相册搜不到,网页版的也搜索不到,没办法解决。
网络代理
在初始化对象的时候加入proxies
字段,例如
api = API(cookies = browser_cookie3.chrome() , proxies = {"https":"socks5://127.0.0.1:1080"} )
。proxies
的格式同requests
库需求一致。
批量下载
通过url = api.get_batchDownloadLink(items,zipname=None)
可以获得一个下载地址,复制到浏览器回车可以下载一个zip包。这其中items
是一个标准的Python list,内容是数据对象
。注意如果要用参数zipname
的话,后缀名要加上.zip
,不然报错。
从百度网盘导入
例子:
api.importFromPanDisk(dirPath="/anime")
其中anime
是百度网盘中的一个文件夹。也可以是更长的路径如dirPath="/path1/path2/path3"
。该函数本身没有延迟,但是调用完成后需要等待一刻相册后端慢慢传输数据完成。另外官方说了,从网盘导入目前只支持文件夹。
Contribution requests
批量下载,遇到一些困难,有js比较好的同学可以去issue帮着看看。(感谢@foxxorcat)
总结
虽然只在mac上测试了一下,但是应该其他系统也能用。大致看起来能跑通,基本功能可以实现。有各种问题的话再慢慢研究修复。
免责申明
此脚本(API)仅供学习交流,禁止商业使用。使用软件过程中,发生意外造成的损失由使用者承担。您必须在下载后的24小时内从计算机或其他各种设备中完全删除本项目所有内容。您使用或者复制了以上的任何内容,则视为已接受此声明,请仔细阅读。
Project details
Release history Release notifications | RSS feed
Download files
Download the file for your platform. If you're not sure which to choose, learn more about installing packages.
Source Distribution
File details
Details for the file pybaiduphoto-2024.2.7.1520.tar.gz
.
File metadata
- Download URL: pybaiduphoto-2024.2.7.1520.tar.gz
- Upload date:
- Size: 22.6 kB
- Tags: Source
- Uploaded using Trusted Publishing? No
- Uploaded via: twine/4.0.2 CPython/3.9.16
File hashes
Algorithm | Hash digest | |
---|---|---|
SHA256 | 6de81b96965541e65fd03de1353c907a352ef9c6e65265453a04446fe741b2c8 |
|
MD5 | 7041581d85a2e8cbf9e98e22d9df08fa |
|
BLAKE2b-256 | abe7f622dcf564c1ff6e0c00f71c2c60624321d8e4c87802772041aa4b146613 |