当前位置: 首页 > news >正文

新加坡最近疫情/谷歌seo网站建设

新加坡最近疫情,谷歌seo网站建设,网站建设教学,如何设置目录在wordpress项目地址:https://github.com/jrainlau/w... 前言 好久没有写文章了,因为最近都在适应新的岗位,以及利用闲暇时间学习python。这篇文章是最近的一个python学习阶段性总结,开发了一个爬虫批量下载某壁纸网站的高清壁纸。 注意&…

项目地址:https://github.com/jrainlau/w...

前言

好久没有写文章了,因为最近都在适应新的岗位,以及利用闲暇时间学习python。这篇文章是最近的一个python学习阶段性总结,开发了一个爬虫批量下载某壁纸网站的高清壁纸。

注意:本文所属项目仅用于python学习,严禁作为其他用途使用!

初始化项目

项目使用了virtualenv来创建一个虚拟环境,避免污染全局。使用pip3直接下载即可:

pip3 install virtualenv

然后在合适的地方新建一个wallpaper-downloader目录,使用virtualenv创建名为venv的虚拟环境:

virtualenv venv. venv/bin/activate

接下来创建依赖目录:

echo bs4 lxml requests > requirements.txt

最后yun下载安装依赖即可:

pip3 install -r requirements.txt

分析爬虫工作步骤

为了简单起见,我们直接进入分类为“aero”的壁纸列表页:http://wallpaperswide.com/aer...。

clipboard.png

可以看到,这一页里面一共有10张可供下载的壁纸。但是由于这里显示的都是缩略图,作为壁纸来说清晰度是远远不够的,所以我们需要进入壁纸详情页,去找到高清的下载链接。从第一张壁纸点进去,可以看到一个新的页面:

clipboard.png

因为我机器是Retina屏幕,所以我打算直接下载体积最大的那个以保证高清(红圈所示体积)。

了解了具体的步骤以后,就是通过开发者工具找到对应的dom节点,提取相应的url即可,这个过程就不再展开了,读者自行尝试即可,下面进入编码部分。

访问页面

新建一个download.py文件,然后引入两个库:

from bs4 import BeautifulSoup
import requests

接下来,编写一个专门用于访问url,然后返回页面html的函数:

def visit_page(url):headers = {'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.108 Safari/537.36'}r = requests.get(url, headers = headers)r.encoding = 'utf-8'return BeautifulSoup(r.text, 'lxml')

为了防止被网站反爬机制击中,所以我们需要通过在header添加UA把爬虫伪装成正常的浏览器,然后指定utf-8编码,最后返回字符串格式的html。

提取链接

在获取了页面的html以后,就需要提取这个页面壁纸列表所对应的url了:

def get_paper_link(page):links = page.select('#content > div > ul > li > div > div a')return [link.get('href') for link in links]

这个函数会把列表页所有壁纸详情的url给提取出来。

下载壁纸

有了详情页的地址以后,我们就可以进去挑选合适的size了。在对页面的dom结构分析后可以知道,每一个size都对应着一个链接:

clipboard.png

所以第一步,就是把这些size对应的链接提取出来:

wallpaper_source = visit_page(link)
wallpaper_size_links = wallpaper_source.select('#wallpaper-resolutions > a')
size_list = [{'size': eval(link.get_text().replace('x', '*')),'name': link.get('href').replace('/download/', ''),'url': link.get('href')
} for link in wallpaper_size_links]

size_list就是这些链接的一个集合。为了方便接下来选出最高清(体积最大)的壁纸,在size中我使用了eval方法,直接把这里的5120x3200给计算出来,作为size的值。

获取了所有的集合之后,就可以使用max()方法选出最高清的一项出来了:

biggest_one = max(size_list, key = lambda item: item['size'])

这个biggest_one当中的url就是对应size的下载链接,接下来只需要通过requests库把链接的资源下载下来即可:

result = requests.get(PAGE_DOMAIN + biggest_one['url'])if result.status_code == 200:open('wallpapers/' + biggest_one['name'], 'wb').write(result.content)

注意,首先你需要在根目录下创建一个wallpapers目录,否则运行时会报错。

整理一下,完整的download_wallpaper函数长这样:

def download_wallpaper(link):wallpaper_source = visit_page(PAGE_DOMAIN + link)wallpaper_size_links = wallpaper_source.select('#wallpaper-resolutions > a')size_list = [{'size': eval(link.get_text().replace('x', '*')),'name': link.get('href').replace('/download/', ''),'url': link.get('href')} for link in wallpaper_size_links]biggest_one = max(size_list, key = lambda item: item['size'])print('Downloading the ' + str(index + 1) + '/' + str(total) + ' wallpaper: ' + biggest_one['name'])result = requests.get(PAGE_DOMAIN + biggest_one['url'])if result.status_code == 200:open('wallpapers/' + biggest_one['name'], 'wb').write(result.content)

批量运行

上述的步骤仅仅能够下载第一个壁纸列表页第一张壁纸。如果我们想下载多个列表页全部壁纸,我们就需要循环调用这些方法。首先我们定义几个常量:

import sysif len(sys.argv) != 4:print('3 arguments were required but only find ' + str(len(sys.argv) - 1) + '!')exit()category = sys.argv[1]try:page_start = [int(sys.argv[2])]page_end = int(sys.argv[3])
except:print('The second and third arguments must be a number but not a string!')exit()

这里通过获取命令行参数,指定了三个常量category, page_startpage_end,分别对应着壁纸分类,起始页页码,终止页页码。

为了方便起见,再定义两个url相关的常量:

PAGE_DOMAIN = 'http://wallpaperswide.com'
PAGE_URL = 'http://wallpaperswide.com/' + category + '-desktop-wallpapers/page/'

接下来就可以愉快地进行批量操作了,在此之前我们来定义一个start()启动函数:

def start():if page_start[0] <= page_end:print('Preparing to download the ' + str(page_start[0])  + ' page of all the "' + category + '" wallpapers...')PAGE_SOURCE = visit_page(PAGE_URL + str(page_start[0]))WALLPAPER_LINKS = get_paper_link(PAGE_SOURCE)page_start[0] = page_start[0] + 1for index, link in enumerate(WALLPAPER_LINKS):download_wallpaper(link, index, len(WALLPAPER_LINKS), start)

然后把之前的download_wallpaper函数再改写一下:

def download_wallpaper(link, index, total, callback):wallpaper_source = visit_page(PAGE_DOMAIN + link)wallpaper_size_links = wallpaper_source.select('#wallpaper-resolutions > a')size_list = [{'size': eval(link.get_text().replace('x', '*')),'name': link.get('href').replace('/download/', ''),'url': link.get('href')} for link in wallpaper_size_links]biggest_one = max(size_list, key = lambda item: item['size'])print('Downloading the ' + str(index + 1) + '/' + str(total) + ' wallpaper: ' + biggest_one['name'])result = requests.get(PAGE_DOMAIN + biggest_one['url'])if result.status_code == 200:open('wallpapers/' + biggest_one['name'], 'wb').write(result.content)if index + 1 == total:print('Download completed!\n\n')callback()

最后指定一下启动规则:

if __name__ == '__main__':start()

运行项目

在命令行输入如下代码开始测试:

python3 download.py aero 1 2

然后可以看到下列输出:

clipboard.png

拿charles抓一下包,可以看到脚本正在平稳地运行中:

clipboard.png

此时,下载脚本已经开发完毕,终于不用担心壁纸荒啦!

http://www.lbrq.cn/news/1363843.html

相关文章:

  • 郑州建站费用/seo工程师
  • php在网站后台建设中的优势/做个网页价格多少
  • 网站居中css代码/销售方案怎么做
  • 无为住建设局网站/企业网站推广注意事项
  • wordpress如何关闭评论功能/合肥seo网络优化公司
  • 济南网站建设公司哪个好点呢/可以推广发广告的app
  • 河南省建设协会网站/公司网络推广方案
  • 外卖网站设计/百度站长平台链接提交
  • 缩我短链接生成器/东莞seo建站
  • 池州市建设工程造价管理网站/微信管理系统软件
  • 成都购物网站建设/企业网站有哪些功能
  • 专注网站建设公司/营销型网站名词解释
  • 做网站vi系统是什么/营销型网站建设报价
  • 做网站插音乐怎么隐藏/关键词排名方法
  • 贸易公司网站案例/百度一下首页网址
  • 双峰做网站/爱站关键词挖掘工具
  • wordpress集成收藏功能/东莞百度快速排名优化
  • 河北企业网站建设公司/网站分析
  • 平凉市建设局门户网站/中国十大网站有哪些
  • 网站死循环/想要网站推广页
  • 做类似淘宝的网站开发需要什么/免费使用seo软件
  • 朝阳专业网站建设/seo优化的内容有哪些
  • 网络工作室主要工作内容/aso安卓优化
  • 郑州开发app公司哪家好/搜索引擎优化专员
  • 河南省建设厅举报网站/怎样去推广自己的网店
  • 如何创建网站目录/永久域名查询
  • 问鼎电子娱乐下载官方网站/关键词排名优化公司哪家强
  • 武汉光谷做网站价格/网站推广的常用途径有哪些
  • 张家口建设局网站/营销型网站建设方案
  • 阳江网站建设/windows优化大师破解版
  • 【多智能体cooragent】CoorAgent 系统中 5 个核心系统组件分析
  • Nexus配置npm私有仓库
  • day 44 文件的规范书写与拆分
  • 电脑声音标志显示红叉的原因
  • Jupyter notebook如何显示行号?
  • 嵌入式第十八课!!数据结构篇入门及单向链表