当前位置: 编程语言>python
juqery的python实现:pyquery学习使用教程
发布时间:2014-8-21
本文导语: python中的pyquery模块语法与jquery相近,可用来解析HTML文件,通过HTML中的标签、id、给定的索引等来获取元素,使得解析HTML文件极为方便。 前提条件,引入pyquery库(当前最新版本为pyquery 1.2.8版本)frompyquer...
python中的pyquery模块语法与jquery相近,可用来解析HTML文件,通过HTML中的标签、id、给定的索引等来获取元素,使得解析HTML文件极为方便。
前提条件,引入pyquery库(当前最新版本为pyquery 1.2.8版本)
from pyquery import PyQuery as pq
1.可加载一段HTML字符串,或一个HTML文件,或是一个url地址,例:
d=pq("<html><title>hello</title></html>") d=pq(filename=path_to_html_file) d=pq(url='http://www.')
注意:此处url似乎必须写全
2.html()和text() ——获取相应的HTML块或文本块,例:
p=pq("<head><title>hello</title></head>") p('head').html()#返回<title>hello</title> p('head').text()#返回hello
3.根据HTML标签来获取元素,例:
d=pq('<div><p>test 1</p><p>test 2</p></div>') d('p')#返回[<p>,<p>] print d('p')#返回<p>test 1</p><p>test 2</p> print d('p').html()#返回test 1
注意:当获取到的元素不只一个时,html()、text()方法只返回首个元素的相应内容块
4.eq(index) ——根据给定的索引号得到指定元素
接上例,若想得到第二个p标签内的内容,则可以:
print d('p').eq(1).html() #返回test 2
5.filter() ——根据类名、id名得到指定元素,例:
d=pq("<div><p id='1'>test 1</p><p class='2'>test 2</p></div>") d('p').filter('#1') #返回[<p#1>] d('p').filter('.2') #返回[<p.2>]
6.find() ——查找嵌套元素,例:
d=pq("<div><p id='1'>test 1</p><p class='2'>test 2</p></div>") d('div').find('p')#返回[<p#1>, <p.2>] d('div').find('p').eq(0)#返回[<p#1>]
7.直接根据类名、id名获取元素,例:
d=pq("<div><p id='1'>test 1</p><p class='2'>test 2</p></div>") d('#1').html()#返回test 1 d('.2').html()#返回test 2
8.获取属性值,例:
d=pq("<p id='my_id'><a href=/article/&/index.html") d('a').attr('href')#返回http://www. d('p').attr('id')#返回my_id
9.修改属性值,例:
d('a').attr('href', 'http://www.')
10.addclass(value) ——为元素添加类,例:
d=pq('<div></div>') d.addClass('my_class')#返回[<div.my_class>]
11.hasClass(name) #返回判断元素是否包含给定的类,例:
d=pq("<div class='my_class'></div>") d.hasClass('my_class')#返回True 12.children(selector=None) ——获取子元素,例: d=pq("<span><p id='1'>hello</p><p id='2'>world</p></span>") d.children()#返回[<p#1>, <p#2>] d.children('#2')#返回[<p#2>] 13.parents(selector=None)——获取父元素,例: d=pq("<span><p id='1'>hello</p><p id='2'>world</p></span>") d('p').parents()#返回[<span>] d('#1').parents('span')#返回[<span>] d('#1').parents('p')#返回[]
14.clone() ——返回一个节点的拷贝
15.empty() ——移除节点内容
16.nextAll(selector=None) ——返回后面全部的元素块,例:
d=pq("<p id='1'>hello</p><p id='2'>world</p><img scr='' />") d('p:first').nextAll()#返回[<p#2>, <img>] d('p:last').nextAll()#返回[<img>]
17.not_(selector) ——返回不匹配选择器的元素,例:
d=pq("<p id='1'>test 1</p><p id='2'>test 2</p>")
d('p').not_('#2')#返回[<p#1>]
综合代码举例
基于Python和pyquery的百度贴吧爬虫完整代码:
from pyquery import PyQuery as pq import urllib2 import re class tiebaSpider: def __init__(self,link): #只看楼主页面 self.url = link+'?see_lz=1' #读取页面 self.raw_html = urllib2.urlopen(self.url).read().decode('gbk') #获得贴子标题 self.title = re.findall('<h1.*?>(.*?)</h1>',self.raw_html)[0] #总共页数 self.total_pages = int(re.findall(r'class="red">(d+?)<',self.raw_html)[0]) self.contents = [] def get_contents(self): """获取所有页面的内容""" page = self.url+'&pn=' for i in range(1,self.total_pages+1): #爬取每个页面 print u'正在爬取第%d页内容...' %i raw_page = urllib2.urlopen(page+str(i)).read().decode('gbk') raw_contents = re.findall('id="post_content.*?>(.*?)</div>',raw_page) #处理页面,获得楼主的post cotent dealed_contents=pq(raw_contents).map(lambda i,e:pq(e).text()) for content in dealed_contents: content = (content+'nn').encode('utf-8') #忘加encode,调试了许久 self.contents.append(content) def save_contents(self): """保存content,写入txt文件中""" self.get_contents() f = open(self.title+'.txt','w+') f.writelines(self.contents) f.close() def main(): print u"请输入百度贴吧贴子链接" link = str(raw_input()) spider = tiebaSpider(link) spider.save_contents() if __name__ == "__main__": main()
您可能感兴趣的文章:
-
本站(WWW.)旨在分享和传播互联网科技相关的资讯和技术,将尽最大努力为读者提供更好的信息聚合和浏览方式。
本站(WWW.)站内文章除注明原创外,均为转载,整理或搜集自网络.欢迎任何形式的转载,转载请注明出处.
转载请注明:文章转载自:[169IT-IT技术资讯]
本文标题:juqery的python实现:pyquery学习使用教程
相关文章推荐: