爬虫实战(一) 用Python爬取百度百科

摘要:
//拜克。百度。com/item/'+urllib。作语法分析quote(content)#请求标头={“用户代理”:获取文本text=response.read().decode('utf-8')#构造_Element对象html=etree.html(text)#使用xpath匹配数据。

最近博主遇到这样一个需求:当用户输入一个词语时,返回这个词语的解释

我的第一个想法是做一个数据库,把常用的词语和词语的解释放到数据库里面,当用户查询时直接读取数据库结果

但是自己又没有心思做这样一个数据库,于是就想到了百度百科这么一个现成的 “数据库”

下面我们就通过 urllib 和 xpath 来获取百度百科的内容

1、爬取百度百科

百度百科是一个静态网页,爬取起来很简单,而且请求参数可以直接放在 URL 里面,例如:

地址 https://baike.baidu.com/item/网络爬虫 对应的就是 网络爬虫 的百度百科页面

地址 https://baike.baidu.com/item/计算机 对应的就是 计算机 的百度百科页面

爬虫实战(一) 用Python爬取百度百科第1张

可以说是十分方便,也不多说,直接放代码,有不明白的地方可以看看注释:

import urllib.request
import urllib.parse
from lxml import etree

def query(content):
    # 请求地址
    url = 'https://baike.baidu.com/item/' + urllib.parse.quote(content)
    # 请求头部
    headers = { 
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36' 
    }
    # 利用请求地址和请求头部构造请求对象
    req = urllib.request.Request(url=url, headers=headers, method='GET')
    # 发送请求,获得响应
    response = urllib.request.urlopen(req)
    # 读取响应,获得文本
    text = response.read().decode('utf-8')
    # 构造 _Element 对象
    html = etree.HTML(text)
    # 使用 xpath 匹配数据,得到匹配字符串列表
    sen_list = html.xpath('//div[contains(@class,"lemma-summary") or contains(@class,"lemmaWgt-lemmaSummary")]//text()') 
    # 过滤数据,去掉空白
    sen_list_after_filter = [item.strip('
') for item in sen_list]
    # 将字符串列表连成字符串并返回
    return ''.join(sen_list_after_filter)

if __name__ == '__main__':
    while (True):
        content = input('查询词语:')
        result = query(content)
        print("查询结果:%s" % result)

效果演示:

爬虫实战(一) 用Python爬取百度百科第2张

2、爬取维基百科

上面的确是可以解决一些问题,但是如果用户查询为英文怎么办?我们知道,百度百科一般极少收录英文词条

类似的,很容易想到爬取维基百科,思路也和爬取百度百科一样,只需处理一下请求地址和返回结果就好

爬虫实战(一) 用Python爬取百度百科第3张

下面也是直接放上代码,有不明白的地方可以看看注释:

from lxml import etree
import urllib.request
import urllib.parse

def query(content):
    # 请求地址
    url = 'https://en.wikipedia.org/wiki/' + content
    # 请求头部
    headers = { 
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36' 
    }
    # 利用请求地址和请求头部构造请求对象
    req = urllib.request.Request(url=url, headers=headers, method='GET')
    # 发送请求,获得响应
    response = urllib.request.urlopen(req)
    # 读取响应,获得文本
    text = response.read().decode('utf-8')
    # 构造 _Element 对象
    html = etree.HTML(text)
    # 使用 xpath 匹配数据,得到 <div class="mw-parser-output"> 下所有的子节点对象
    obj_list = html.xpath('//div[@class="mw-parser-output"]/*')
    # 在所有的子节点对象中获取有用的 <p> 节点对象
    for i in range(0,len(obj_list)):
        if 'p' == obj_list[i].tag:
            start = i
            break
    for i in range(start,len(obj_list)):
        if 'p' != obj_list[i].tag:
            end = i
            break
    p_list = obj_list[start:end]
    # 使用 xpath 匹配数据,得到 <p> 下所有的文本节点对象
    sen_list_list = [obj.xpath('.//text()') for obj in p_list]
    # 将文本节点对象转化为字符串列表
    sen_list = [sen.encode('utf-8').decode() for sen_list in sen_list_list for sen in sen_list]
    # 过滤数据,去掉空白
    sen_list_after_filter = [item.strip('
') for item in sen_list]
    # 将字符串列表连成字符串并返回
    return ''.join(sen_list_after_filter)

if __name__ == '__main__':
    while (True):
        content = input('Word: ')
        result = query(content)
        print("Result: %s" % result)

下面是效果演示:

爬虫实战(一) 用Python爬取百度百科第4张

OK,大功告成!

注意:本项目代码仅作学习交流使用!!!

免责声明:文章转载自《爬虫实战(一) 用Python爬取百度百科》仅用于学习参考。如对内容有疑问,请及时联系本站处理。

上篇h5+App——分享是怎么实现的?Visual Studio2015 简体中文版 安装下篇

宿迁高防,2C2G15M,22元/月;香港BGP,2C5G5M,25元/月 雨云优惠码:MjYwNzM=

相关文章

(二)Java数组特性总结,你真的了解数组吗?

一、数组的特殊性 (一)数组标识符是一个引用,指向堆中创建的一个真实对象,这个对象(数组)保存了指向保存其他对象的引用。 (二)数组中保存引用类型时保存的是对象引用,基本数据类型数组保存基本数据的值。 (三)数组的length只表示数组能够容纳多少元素,不能保存实际保存的元素个数。 (四)多维数组可以使用Arrays.deepToString()将多维数组...

Xcode断点调试技巧

本文转载自破船 在程序中,无论是你想弄清楚为什么数组中有3个对象而不是5个,或者为什么一个新的玩家开始之后,游戏在倒退——调试在这些处理过程中是比较重要的一部分。通过本文的学习,我们将知道在程序中,可以使用的大多数重要调试功能,并如何利用这些调试功能来帮助你以更少的时间解决bug。 本文将介绍如下内容: 使用控制台检查程序的状态 进行日志记录,并熟练的驾...

Python map 函数 -Python零基础入门教程

目录 一.前言 二.Python map 函数语法简介 三.Python map 函数实战 1.使用 map 函数 2.map 函数配合 lambda 匿名函数一起使用 四.Python map 函数效率对比 五.Python map 函数总结 六.猜你喜欢 零基础 Python 学习路线推荐 : Python 学习目录 >> Pyt...

vue中使用axios对同一个接口连续请求导致返回数据混乱的问题

项目中遇到该问题,记录一下 需求是连续请求5次同一个接口,但是参数不一样。最开始使用 forEach 接口循环调用接口,发现有时候先请求的比后请求的返回数据慢,导致数据顺序混乱,所以需要控制请求的顺序。 因为需要将5次数据拿到依次放入指定的数组中。 这里就使用到了 Promise.all getLawhelpMethod(){             ...

C#下内存管理--垃圾收集

章节安排 内存管理简介 垃圾回收机制 性能问题 C#下非托管资源的处理 要强调的几点 References 内存管理简介       对于任何一种编程语言,内存管理都是不得不提很重要的一块内容,但可惜的是目前为止没有任何一种编程语言对内存管理处理的非常完美,每种语言都在兼顾性能 效率,语法语义易用性等方面折中中有所侧重。例如较之于C#,JAVA等语言...

vue:axios拦截器

拦截器分两类:请求拦截器和响应拦截器 一、请求拦截器 在请求发出之前设置一些信息。比如说设置请求头, 在use方法参数即第一个函数的形参中通过config来做信息的配置,配置完之后,必须把config返回,这样才能完成拦截器的功能。第二个函数用于处理错误的信息。 用拦截器的方式配置请求头会更加灵活。拦截器中可以通过config获取更多的信息,比如url地...