博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
Python爬虫入门教程 6-100 蜂鸟网图片爬取之一
阅读量:7127 次
发布时间:2019-06-28

本文共 3921 字,大约阅读时间需要 13 分钟。

1. 简介

国庆假日结束了,新的工作又开始了,今天我们继续爬取一个网站,这个网站为 http://image.fengniao.com/ ,蜂鸟一个摄影大牛聚集的地方,本教程请用来学习,不要用于商业目的,不出意外,蜂鸟是有版权保护的网站。

在这里插入图片描述

2. 网站分析

第一步,分析要爬取的网站有没有方法爬取,打开页面,找分页

http://image.fengniao.com/index.php?action=getList&class_id=192&sub_classid=0&page=1¬_in_id=5352384,5352410http://image.fengniao.com/index.php?action=getList&class_id=192&sub_classid=0&page=2¬_in_id=5352384,5352410http://image.fengniao.com/index.php?action=getList&class_id=192&sub_classid=0&page=3¬_in_id=5352384,5352410http://image.fengniao.com/index.php?action=getList&class_id=192&sub_classid=0&page=4¬_in_id=5352384,5352410

上面的页面发现一个关键的参数page=1这个就是页码了,但是另一个比较头疼的问题是,他没有最后的页码,这样我们没有办法确定循环次数,所以后面的代码编写中,只能使用while

这个地址返回的是JSON格式的数据,这个对爬虫来说,非常友好!省的我们用正则表达式分析了。

在这里插入图片描述

分析这个页面的头文件,查阅是否有反爬措施

在这里插入图片描述

发现除了HOST和User-Agent以外,没有特殊的点,大网站就是任性,没啥反爬,可能压根不在乎这个事情。

第二步,分析图片详情页面,在我们上面获取到的JSON中,找到关键地址

在这里插入图片描述

关键地址打开之后,这个地方有一个比较骚的操作了,上面图片中标注的URL选的不好,恰好是一个文章了,我们要的是组图,重新提供一个新链接 http://image.fengniao.com/slide/535/5352130_1.html#p=1

打开页面,你可能直接去找规律了,找到下面的一堆链接,但是这个操作就有点复杂了,我们查阅上述页面的源码

http://image.fengniao.com/slide/535/5352130_1.html#p=1http://image.fengniao.com/slide/535/5352130_1.html#p=2http://image.fengniao.com/slide/535/5352130_1.html#p=3....

网页源码中发现了,这么一块区域

在这里插入图片描述

大胆的猜测一下,这个应该是图片的JSON,只是他打印在了HTML中,我们只需要用正则表达式进行一下匹配就好了,匹配到之后,然后进行下载。

第三步,开始撸代码。

在这里插入图片描述

3. 写代码

from http_help import R  # 这个文件自己去上篇博客找,或者去github找import threadingimport timeimport jsonimport reimg_list = []imgs_lock = threading.Lock()  #图片操作锁# 生产者类class Product(threading.Thread):    def __init__(self):        threading.Thread.__init__(self)        self.__headers = {"Referer":"http://image.fengniao.com/",                          "Host": "image.fengniao.com",                          "X-Requested-With":"XMLHttpRequest"                          }        #链接模板        self.__start = "http://image.fengniao.com/index.php?action=getList&class_id=192&sub_classid=0&page={}¬_in_id={}"        self.__res = R(headers=self.__headers)    def run(self):        # 因为不知道循环次数,所有采用while循环        index = 2 #起始页码设置为1        not_in = "5352384,5352410"        while True:            url  = self.__start.format(index,not_in)            print("开始操作:{}".format(url))            index += 1            content = self.__res.get_content(url,charset="gbk")            if content is None:                print("数据可能已经没有了====")                continue            time.sleep(3)  # 睡眠3秒            json_content = json.loads(content)            if json_content["status"] == 1:                for item in json_content["data"]:                    title = item["title"]                    child_url =  item["url"]   # 获取到链接之后                    img_content = self.__res.get_content(child_url,charset="gbk")                    pattern = re.compile('"pic_url_1920_b":"(.*?)"')                    imgs_json = pattern.findall(img_content)                    if len(imgs_json) > 0:                        if imgs_lock.acquire():                            img_list.append({"title":title,"urls":imgs_json})   # 这个地方,我用的是字典+列表的方式,主要是想后面生成文件夹用,你可以进行改造                            imgs_lock.release()

上面的链接已经生成,下面就是下载图片了,也非常简单

# 消费者class Consumer(threading.Thread):    def __init__(self):        threading.Thread.__init__(self)        self.__res = R()    def run(self):        while True:            if len(img_list) <= 0:                continue  # 进入下一次循环            if imgs_lock.acquire():                data = img_list[0]                del img_list[0]  # 删除第一项                imgs_lock.release()            urls =[url.replace("\\","") for url in data["urls"]]            # 创建文件目录            for item_url in urls:               try:                   file =  self.__res.get_file(item_url)                   # 记得在项目根目录先把fengniaos文件夹创建完毕                   with open("./fengniaos/{}".format(str(time.time())+".jpg"), "wb+") as f:                       f.write(file)               except Exception as e:                   print(e)

代码走起,结果

在这里插入图片描述

转载于:https://blog.51cto.com/1615800/2332629

你可能感兴趣的文章
ReactOS:基于Windows的开源操作系统
查看>>
在 Linux 中调试 C 程序的福音——gdb
查看>>
这些年一起学过的Linux
查看>>
Linux环境PHP7.0安装
查看>>
浏览器缓存机制
查看>>
Date、System、Calendar获取当前时间毫秒
查看>>
JS中的类型检测总结
查看>>
vue小demo0
查看>>
QQ邮箱无法收到系统邮件的问题处理
查看>>
iPhone X 网页导航概念
查看>>
python脚本监控程序问题&解决
查看>>
C++ 入门教程(开发文档)
查看>>
UCloud可支撑单可用区320,000服务器的数据中心网络系统设计
查看>>
测试网络rinkeby外文资料
查看>>
php 非常有用的高级函数PATH_SEPARATOR常量和set_include_path
查看>>
android studio 3.0 入坑需知
查看>>
java线程--打印错误堆栈信息
查看>>
你都用过世界地图中哪些数据中心
查看>>
QuickBI助你成为分析师-保证数据安全:行级权限
查看>>
记录安全扫描后进行的代码重构各类问题以及处理办法
查看>>