关键词搜索

源码搜索 ×
×

Python爬虫入门教程02:小说爬取

发布2021-02-02浏览629次

详情内容

前言
本文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,如有问题请及时联系我们以作处理。

前文
01、python爬虫入门教程01:豆瓣Top电影爬取

基本开发环境
Python 3.6
Pycharm
相关模块的使用
requests
parsel
安装Python并添加到环境变量,pip安装需要的相关模块即可。
在这里插入图片描述

单章爬取
在这里插入图片描述

一、明确需求
爬取小说内容保存到本地

小说名字
小说章节名字
小说内容

# 第一章小说url地址
url = 'http://www.biquges.com/52_52642https://cdn.jxasp.com:9143/image/25585323.html'
1
2
url = 'http://www.biquges.com/52_52642https://cdn.jxasp.com:9143/image/25585323.html'
headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.138 Safari/537.36'
}
response = requests.get(url=url, headers=headers)
print(response.text)

    在这里插入图片描述

    请求网页返回的数据中出现了乱码,这就需要我们转码了。

    加一行代码自动转码。

    response.encoding = response.apparent_encoding

    在这里插入图片描述

    三、解析数据
    在这里插入图片描述

    根据css选择器可以直接提取小说标题以及小说内容。

    def get_one_novel(html_url):
        # 调用请求网页数据函数
        response = get_response(html_url)
        # 转行成selector解析对象
        selector = parsel.Selector(response.text)
        # 获取小说标题
        title = selector.css('.bookname h1::text').get()
        # 获取小说内容 返回的是list
        content_list = selector.css('#content::text').getall()
        # ''.join(列表) 把列表转换成字符串
        content_str = ''.join(content_list)
        print(title, content_str)
    
    
    if __name__ == '__main__':
        url = 'http://www.biquges.com/52_52642https://cdn.jxasp.com:9143/image/25585323.html'
        get_one_novel(url)
    
    ![在这里插入图片描述](https://img-blog.csdnimg.cn/20210202135620489.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L2NoaW5haGVyb2x0czIwMDg=,size_16,color_FFFFFF,t_70)
    
    
    四、保存数据(数据持久化)
    使用常用的保[python基础教程](https://www.xin3721.com/eschool/pythonxin3721/)存方式: with open
    
    def save(title, content):
        """
        保存小说
        :param title: 小说章节标题
        :param content: 小说内容
        :return: 
        """
        # 路径
        filename = f'{title}\\'
        # os 内置模块,自动创建文件夹
        if os.makedirs(filename):
            os.mkdir()
        # 一定要记得加后缀 .txt  mode 保存方式 a 是追加保存  encoding 保存编码
        with open(filename + title + '.txt', mode='a', encoding='utf-8') as f:
            # 写入标题
            f.write(title)
            # 换行
            f.write('\n')
            # 写入小说内容
            f.write(content)
    
      11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
    • 34
    • 35
    • 36
    • 37
    • 38
    • 39
    • 40
    • 41
    • 42
    • 43
    • 44

    在这里插入图片描述

    在这里插入图片描述

    保存一章小说,就这样写完了,如果想要保存整本小说呢?

    整本小说爬虫
    既然爬取单章小说知道怎么爬取了,那么只需要获取小说所有单章小说的url地址,就可以爬取全部小说内容了。
    在这里插入图片描述

    所有的单章的url地址都在 dd 标签当中,但是这个url地址是不完整的,所以爬取下来的时候,要拼接url地址。

    def get_all_url(html_url):
        # 调用请求网页数据函数
        response = get_response(html_url)
        # 转行成selector解析对象
        selector = parsel.Selector(response.text)
        # 所有的url地址都在 a 标签里面的 href 属性中 
        dds = selector.css('#list dd a::attr(href)').getall()
        for dd in dds:
            novel_url = 'http://www.biquges.com' + dd
            print(novel_url)
    
    
    if __name__ == '__main__':
        url = 'http://www.biquges.com/52_52642/index.html'
        get_all_url(url)
    
      11
    • 12
    • 13
    • 14
    • 15

    在这里插入图片描述

    这样就获取了所有的小说章节url地址了。

    爬取全本完整代码

    import requests
    import parsel
    from tqdm import tqdm
    
    
    def get_response(html_url):
        headers = {
            'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.138 Safari/537.36'
        }
        response = requests.get(url=html_url, headers=headers)
        response.encoding = response.apparent_encoding
        return response
    
    
    def save(novel_name, title, content):
        """
        保存小说
        :param title: 小说章节标题
        :param content: 小说内容
        :return:
        """
        filename = f'{novel_name}' + '.txt'
        # 一定要记得加后缀 .txt  mode 保存方式 a 是追加保存  encoding 保存编码
        with open(filename, mode='a', encoding='utf-8') as f:
            # 写入标题
            f.write(title)
            # 换行
            f.write('\n')
            # 写入小说内容
            f.write(content)
    
    
    def get_one_novel(name, novel_url):
        # 调用请求网页数据函数
        response = get_response(novel_url)
        # 转行成selector解析对象
        selector = parsel.Selector(response.text)
        # 获取小说标题
        title = selector.css('.bookname h1::text').get()
        # 获取小说内容 返回的是list
        content_list = selector.css('#content::text').getall()
        # ''.join(列表) 把列表转换成字符串
        content_str = ''.join(content_list)
        save(name, title, content_str)
    
    
    def get_all_url(html_url):
        # 调用请求网页数据函数
        response = get_response(html_url)
        # 转行成selector解析对象
        selector = parsel.Selector(response.text)
        # 所有的url地址都在 a 标签里面的 href 属性中
        dds = selector.css('#list dd a::attr(href)').getall()
        # 小说名字
        novel_name = selector.css('#info h1::text').get()
        for dd in tqdm(dds):
            novel_url = 'http://www.biquges.com' + dd
            get_one_novel(novel_name, novel_url)
    
    
    if __name__ == '__main__':
        novel_id = input('输入书名ID:')
        url = f'http://www.biquges.com/{novel_id}/index.html'
        get_all_url(url)
    
      11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
    • 34
    • 35
    • 36
    • 37
    • 38
    • 39
    • 40
    • 41
    • 42
    • 43
    • 44
    • 45
    • 46
    • 47
    • 48
    • 49
    • 50
    • 51
    • 52
    • 53
    • 54
    • 55
    • 56
    • 57
    • 58
    • 59
    • 60
    • 61
    • 62
    • 63
    • 64

    在这里插入图片描述

    在这里插入图片描述

    版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
    本文链接:https://blog.csdn.net/fei347795790/article/details/113055090

    相关技术文章

    最新源码

    下载排行榜

    点击QQ咨询
    开通会员
    返回顶部
    ×
    微信扫码支付
    微信扫码支付
    确定支付下载
    请使用微信描二维码支付
    ×

    提示信息

    ×

    选择支付方式

    • 微信支付
    • 支付宝付款
    确定支付下载