用XPath定位Web页面元素时,如何快速验证XPath语句是否正确?

摘要:
XPath是在使用Selenium自动测试Web UI的过程中查找页面元素的常用方法。然而,当我们想快速验证修补的XPath语句的正确性时,我们应该怎么做,因为某些元素的XPath路径太复杂了?在浏览器中打开开发人员工具,并按以下格式在Console列中输入。括号中的XPath语句是要验证的内容。输入后,将显示XPath语句定位的结果信息。将鼠标移动到结果信息,相应的Web元素可以标记在页面上。以上,通过浏览器快速验证XPath语句的目标已经实现。

在使用Selenium做Web UI自动化测试的过程中,XPath是一种定位页面元素的常用方式。然而,面对某些元素的XPath路径过于复杂,我们想快速验证拼凑的Xpath语句是否正确时,该怎么办呢?这里给大家提供一个简单的解决方法。

下面以百度页面举例,定位"百度一下"按钮。打开浏览器中的开发者工具(F12),在Console栏中按以下格式输入,其中括号中的XPath语句即为待验证的内容。

$x('XPath...')

按照上述格式,我们输入了$x('//input[@id="su"]'),结果如下图所示。输入完成后,出现了XPath语句定位的结果信息,鼠标移动到该结果信息,能够在页面中标记出对应的Web元素。

用XPath定位Web页面元素时,如何快速验证XPath语句是否正确?第1张

 以上,实现了通过浏览器快速验证XPath语句的目标。

免责声明:文章转载自《用XPath定位Web页面元素时,如何快速验证XPath语句是否正确?》仅用于学习参考。如对内容有疑问,请及时联系本站处理。

上篇python multiprocessing.pool.apply_async 占用内存多 解决方法数据挖掘导论(完整版)下篇

宿迁高防,2C2G15M,22元/月;香港BGP,2C5G5M,25元/月 雨云优惠码:MjYwNzM=

相关文章

[转]ios几种常用的XML解析器

SAX解析器是在你的代码分析器通知作为遍历XML树,你是通过负责保持跟踪状态和建设的任何对象你可能想游行保持分析器跟踪的数据。 DOM解析器读取整个文件,并建立了一个在内存中的表示,你可以查询不同的元素。 通常情况下,你甚至可以构建XPath查询退出特别件。   1、NSXMLParser是一个SAX解析器SDK中包含的iPhone默认的。 这是写在Obj...

爬虫实战(一) 用Python爬取百度百科

最近博主遇到这样一个需求:当用户输入一个词语时,返回这个词语的解释 我的第一个想法是做一个数据库,把常用的词语和词语的解释放到数据库里面,当用户查询时直接读取数据库结果 但是自己又没有心思做这样一个数据库,于是就想到了百度百科这么一个现成的 “数据库” 下面我们就通过 urllib 和 xpath 来获取百度百科的内容 1、爬取百度百科 百度百科是一个静态...

Selenium示例集锦--常见元素识别方法、下拉框、文本域及富文本框、鼠标操作、一组元素定位、弹窗、多窗口处理、JS、frame、文件上传和下载

元素定位及其他操作 0、常见的识别元素的方法是什么? 1 driver.find_element_by_id() 2 driver.find_element_by_name() 3 driver.find_element_by_class_name() 4 driver.find_element_by_tag_name() 5 driver.find...

Scrapy进阶知识点总结(二)——选择器Selectors

1. Selectors选择器 在抓取网页时,您需要执行的最常见任务是从HTML源提取数据。有几个库可用于实现此目的,例如: BeautifulSoup是Python程序员中非常流行的Web抓取库,它基于HTML代码的结构构造Python对象,并且相当好地处理坏标记,但它有一个缺点:它很慢。 lxml是一个XML解析库(也可以解析HTML),它使用基于E...

Java+Selenium元素定位的八种方法(二)

Selenium自动化一般需要几个步骤操作:定位元素,获取元素,操作元素,获取返回结果,断言(返回结果与期望结果是否一致),最后自动化出测试报告。 一、WebDriver API提供了8种元素定位的方法 1、id 2、name 3、class name 4、link text 5、Xpath 6、Css selector 7、tag name 8、part...

Scrapy 框架 入门教程

Scrapy入门教程 在本篇教程中,我已经安装好Scrapy 本篇教程中将带您完成下列任务: 创建一个Scrapy项目 定义提取的Item 编写爬取网站的 spider 并提取 Item 编写 Item Pipeline 来存储提取到的Item(即数据) 创建项目 在开始爬取之前,您必须创建一个新的Scrapy项目。 进入您打算存储代码的目录中,运行...