没有合适的资源?快使用搜索试试~ 我知道了~
温馨提示
试读
1页
本文实例讲述了Python读取网页内容的方法。分享给大家供大家参考。具体如下: import urllib2 #encoding = utf-8 class Crawler: def main(self): #req = urllib2.Request('http://www.baidu.com/') #req.add_header('User-Agent', 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10.6; rv:5.0)') #urllib2.socket.setdefaulttimeout(10) # 超时10秒
资源详情
资源评论
资源推荐
Python读取网页内容的方法读取网页内容的方法
本文实例讲述了Python读取网页内容的方法。分享给大家供大家参考。具体如下:
import urllib2
#encoding = utf-8
class Crawler:
def main(self):
#req = urllib2.Request('http://www.baidu.com/')
#req.add_header('User-Agent', 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10.6; rv:5.0)')
#urllib2.socket.setdefaulttimeout(10) # 超时10秒
#page = urllib2.urlopen(req)
page = urllib2.urlopen('http://www.google.com', timeout=10)
data = page.read()
print data
print len(data) #计算字节长度
if __name__ == '__main__':
me=Crawler()
me.main()
希望本文所述对大家的Python程序设计有所帮助。
您可能感兴趣的文章您可能感兴趣的文章:python打开url并按指定块读取网页内容的方法Python读取本地文件并解析网页元素的方法Python中文分
词工具之结巴分词用法实例总结【经典案例】Python 结巴分词实现关键词抽取分析python jieba分词并统计词频后输出结果到
Excel和txt文档方法python使用jieba实现中文分词去停用词方法示例python中文分词教程之前向最大正向匹配算法详解Python
基于jieba库进行简单分词及词云功能实现方法python实现中文分词FMM算法实例Python中文分词实现方法(安装
pymmseg)python中文分词,使用结巴分词对python进行分词(实例讲解)python实现的读取网页并分词功能示例
weixin_38626080
- 粉丝: 8
- 资源: 973
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功
评论0