暗区突围透视物资利用爬虫代码美女写真套图下载转PDF保存

  发布时间:2025-11-04 09:07:37   作者:玩站小弟   我要评论
爬的利用不是全站链接,该爬虫爬的爬虫暗区突围透视物资是每套图的链接,相当于是代码暗区突围辅助准星软件详情页的链接需要单独下载的python库requestsfake_useragentxpathPIL下面有图片 打码是为了过审,这网站真的美女暗区突围辅助发卡网是正经的写真网站不是什么老司机网站import requests from fake_useragent import UserAgent from lxml import etree import os import aiohttp import asyncio from PIL import Image import shutil #获取详情页全部图片函数 async def get_xq(url): #计数 p=0 tasks = [] res = requests.get(url=url,headers=header) res.encoding="utf-8" res.close() tree = etree.HTML(res.text) #图片标题 imgtitle = tree.xpath(//title/text())[0] global title title = imgtitle #第一页的图片链接 img = tree.xpath(//article//img/@src) imgurl = ["https://www.xgyw01.co" + i for i in img] print("当前下载的套图标题:\n"+imgtitle) for i in imgurl: p += 1 tasks.append(down(i,imgtitle,p)) #获取下一页的链接 next = "https://www.xgyw01.co" + tree.xpath(//div[@class="pagination"][1]//a[last()]/@href)[0] #判断的条件 bool = tree.xpath(//div[@class="pagination"][1]//a[last()]/text())[0] #循环获取所有页 while True: print("正在获取"+next) if bool == "下一页" or bool == "下页": res = requests.get(url=next, headers=header) res.encoding = "utf-8" res.close() tree = etree.HTML(res.text) img = tree.xpath(//article//img/@src) imgurl = ["https://www.xgyw01.co" + i for i in img] for i in imgurl: p += 1 tasks.append(down(i,imgtitle,p)) #判断的条件 bool = tree.xpath(//div[@class="pagination"][1]//a[last()]/text())[0] if bool == "下一页" or bool == "下页": next = "https://www.xgyw01.co" + tree.xpath(//div[@class="pagination"][1]//a[last()]/@href)[0] continue else: break else: break print("开始异步下载图片.....") await asyncio.wait(tasks) #下载函数 async def down(url,filename,fn): filepath = os.path.join(dirdz,filename) if not os.path.exists(filepath): os.mkdir(filepath) async with aiohttp.ClientSession() as session: async with session.get(url) as res: with open(filepath+"/"+str(fn)+".jpg",mode="wb") as f: f.write(await res.content.read()) print(f"第{fn}张下载完成") #写真图片转PDF函数 def jpg_pdf(filename): # 定义文件夹路径和PDF文件名 folder_path = os.path.join(dirdz,filename) pdf_filename = os.path.join(dirdz,filename + ".pdf") # # 将JPEG文件转换为Pillow Image对象并添加到列表中 image_files = [os.path.join(folder_path, f) for f in os.listdir(folder_path) if f.endswith(.jpeg) or f.endswith(.jpg)] image_list = [] for file_path in image_files: img = Image.open(os.path.abspath(file_path)) image_list.append(img) # 找到所有JPEG文件 image_list[0].save(pdf_filename, "PDF" ,resolution=100.0, save_all=True, append_images=image_list[1:]) print("pdf合并完成,删除缓存的的图片") shutil.rmtree(folder_path) print("清理完成") #主函数 if __name__ == __main__: #定义的公共请求头 header = {"user-agent": UserAgent().random} #定义的保存路径(文件夹路径) dirdz = "这里输入保存的文件夹路径" #定义一个全局的标题保存文件名字 title = "" #爬取的网站是:https://www.xgyw01.co/,找到想下的写真下载暗区突围透视挂购买平台套图直接点进去复制详情页的链接就行了 url = input("请输入套图详情页链接:") #使用异常捕获排除异常 try: #因为是异步函数所以需要用asyncio.run启动 asyncio.run(get_xq(url)) print(title) except: print("链接详情页解析错误.........") print("全部下载完成,开始生成pdf.......") #调用图片转PDF函数 jpg_pdf(title) 。

暗区突围透视物资利用爬虫代码美女写真套图下载转PDF保存

爬的利用不是全站链接,该爬虫爬的爬虫暗区突围透视物资是每套图的链接,相当于是代码暗区突围辅助准星软件详情页的链接

需要单独下载的python库

暗区突围透视物资利用爬虫代码美女写真套图下载转PDF保存

requests

fake_useragent

xpath

PIL

下面有图片 打码是为了过审 ,这网站真的美女暗区突围辅助发卡网是正经的写真网站不是什么老司机网站

import requests from fake_useragent import UserAgent from lxml import etree import os import aiohttp import asyncio from PIL import Image import shutil #获取详情页全部图片函数 async def get_xq(url): #计数 p=0 tasks = [] res = requests.get(url=url,headers=header) res.encoding="utf-8" res.close() tree = etree.HTML(res.text) #图片标题 imgtitle = tree.xpath(//title/text())[0] global title title = imgtitle #第一页的图片链接 img = tree.xpath(//article//img/@src) imgurl = ["https://www.xgyw01.co" + i for i in img] print("当前下载的套图标题:\n"+imgtitle) for i in imgurl: p += 1 tasks.append(down(i,imgtitle,p)) #获取下一页的链接 next = "https://www.xgyw01.co" + tree.xpath(//div[@class="pagination"][1]//a[last()]/@href)[0] #判断的条件 bool = tree.xpath(//div[@class="pagination"][1]//a[last()]/text())[0] #循环获取所有页 while True: print("正在获取"+next) if bool == "下一页" or bool == "下页": res = requests.get(url=next, headers=header) res.encoding = "utf-8" res.close() tree = etree.HTML(res.text) img = tree.xpath(//article//img/@src) imgurl = ["https://www.xgyw01.co" + i for i in img] for i in imgurl: p += 1 tasks.append(down(i,imgtitle,p)) #判断的条件 bool = tree.xpath(//div[@class="pagination"][1]//a[last()]/text())[0] if bool == "下一页" or bool == "下页": next = "https://www.xgyw01.co" + tree.xpath(//div[@class="pagination"][1]//a[last()]/@href)[0] continue else: break else: break print("开始异步下载图片.....") await asyncio.wait(tasks) #下载函数 async def down(url,filename,fn): filepath = os.path.join(dirdz,filename) if not os.path.exists(filepath): os.mkdir(filepath) async with aiohttp.ClientSession() as session: async with session.get(url) as res: with open(filepath+"/"+str(fn)+".jpg",mode="wb") as f: f.write(await res.content.read()) print(f"第{fn}张下载完成") #写真图片转PDF函数 def jpg_pdf(filename): # 定义文件夹路径和PDF文件名 folder_path = os.path.join(dirdz,filename) pdf_filename = os.path.join(dirdz,filename + ".pdf") # # 将JPEG文件转换为Pillow Image对象并添加到列表中 image_files = [os.path.join(folder_path, f) for f in os.listdir(folder_path) if f.endswith(.jpeg) or f.endswith(.jpg)] image_list = [] for file_path in image_files: img = Image.open(os.path.abspath(file_path)) image_list.append(img) # 找到所有JPEG文件 image_list[0].save(pdf_filename, "PDF" ,resolution=100.0, save_all=True, append_images=image_list[1:]) print("pdf合并完成,删除缓存的的图片") shutil.rmtree(folder_path) print("清理完成") #主函数 if __name__ == __main__: #定义的公共请求头 header = {"user-agent": UserAgent().random} #定义的保存路径(文件夹路径) dirdz = "这里输入保存的文件夹路径" #定义一个全局的标题保存文件名字 title = "" #爬取的网站是:https://www.xgyw01.co/ ,找到想下的写真下载暗区突围透视挂购买平台套图直接点进去复制详情页的链接就行了 url = input("请输入套图详情页链接:") #使用异常捕获排除异常 try: #因为是异步函数所以需要用asyncio.run启动 asyncio.run(get_xq(url)) print(title) except: print("链接详情页解析错误.........") print("全部下载完成,开始生成pdf.......") #调用图片转PDF函数 jpg_pdf(title)

相关文章

  • 一码空传临时网盘PHP源码,支持提取码功能

    源码简介一码空传临时网盘PHP源码,支持提取码功能 ,无数据库版V2.0,免费授权 。前端采用layui开发框架,后端是原生PHP ,没有使用任何的开发框架 。采用了一个无数据库配置读写类,config文件读
    2025-11-04
  • 中通快递2024年Q2业绩稳健增长 ,净利润达26.14亿元 ,市场份额19.6%

    Zte 的第二季度收入为107.26亿元人民币 ,净利润为261.4亿元人民币 ,调整后的净利润为28.06亿元人民币 ,都实现了增长 。该公司宣布将临时现金股息分配为每股0.35美元 ,业务量为84.52亿辆
    2025-11-04
  • 《光与夜之恋》萧逸缚野囚心怎么样

    光与夜之恋萧逸缚野囚心怎么样?光与夜之恋游戏的全新“猎权欲影”系列活动即将于11月6日正式开启 ,届时玩家可以进入游戏抽取“惑梦金砂”系列六星灵犀 。下面为大家分享一下萧逸的缚野囚心六星灵犀卡面,喜欢萧逸
    2025-11-04
  • 传奇的诞生与偶像的陨落丨阮玲玉逝世85周年

    撰文丨王一平明星自杀,向来是大众关注的焦点。从张国荣到雪莉 ,当红明星的自杀总能引发巨大的舆论漩涡 。作为大众欲望的投射  ,明星自杀无疑意味着想象的破灭。更为重要的是,当红明星的自杀常常成为一个时代的信号 ,
    2025-11-04
  • 蓝搜网页版源码 | 蓝奏云网盘搜索引擎网站系统源码

    源码简介蓝搜WEB网页版V1.0是一款全开源的搜索引擎程序 ,支持添加搜索违禁词 ,并且提供了代码注释 ,方便用户阅读和修改 。该程序支持自适应PC端和移动端  ,并采用了简洁的界面设计,没有后台管理的繁琐操作,
    2025-11-04
  • 《江南百景图》江南秋已老怎么玩

    江南百景图江南秋已老怎么玩 ?江南秋已老是江南百景图在11月即将开启的系列活动 ,活动内容包括专属珍宝概率提升、帝陵主题建筑、兑换玩法等 ,具体的活动内容可以参考小编在下文中为大家分享的介绍内容哦。对新活动
    2025-11-04

最新评论