每天一个爬虫-learnku:归档与标签
前言
今天完成我的博客页面剩下的内容,并将该页面的所有内容整合起来,弄出一个归纳与提醒的小程序。
归档与标签
根据前面获取到的内容可以很容易的就完成归档与标签的获取,代码如下:
month_post_count = result.xpath('//div [@class = "ui list readmore"]/a/@href')
label_list = result.xpath('//a [@class = "ui label basic"]/@href')
print("博客归档链接为:{},标签链接为:{}".format(month_post_count, label_list))
到此整个我的博客页面已经全部获取完毕了,接下来开始进行爬虫整合的工作
整合爬取到的内容
将前两天的爬虫进行整合
- 新建一个
content.py
的文件,写入初始数据BLOG_NAME = "SilenceHL" POST_COUNT = 41 FANS_COUNT = 2 LIKE_COUNT = 5 FAVORITES_COUNT = 6 ACCESS = 571 RANK = 1609
- 完成对个人数据的展示以及数据的更新
print("欢迎来到{}的博客,\n目前该博客博文数量为{}篇,较昨日新增{}篇,\n粉丝数为{}人,较昨日新增{}人,\n获得喜欢的数量为{},较昨日新增{},\n" "获得收藏的数量为{},较昨日新增{},\n当前访问人数为{},较昨日新增{},\n当前排名为{},较昨日新增{},\n博客所有归档链接为{}\n,所有标签链接为{}".format(name, post_count, int( post_count) - POST_COUNT, fans_count, int( fans_count) - FANS_COUNT, like_count, int( like_count) - LIKE_COUNT, favorites_count, int( favorites_count) - FAVORITES_COUNT, access, int(access) - ACCESS, rank, int(rank) - RANK, month_post_list, label_list)) with open('content.py', 'w') as f: f.write("""BLOG_NAME = "{}" POST_COUNT = {} FANS_COUNT = {} LIKE_COUNT = {} FAVORITES_COUNT = {} ACCESS = {} RANK = {}""".format(name, post_count, fans_count, like_count, favorites_count, access, rank)) print('完成当日数据更新')
本作品采用《CC 协议》,转载必须注明作者和本文链接
推荐文章: