`
san_yun
  • 浏览: 2595973 次
  • 来自: 杭州
文章分类
社区版块
存档分类
最新评论

不要直接使用urllib2.urlopen直接发送http请求

 
阅读更多

今天在测试netty http接口时发现,如果使用urslib2发送请求不会有kepp-alive效果。

测试代码

 

import urllib2
print urllib2.urlopen("http://localhost:8989/blogQueryService/toDate?param1=1360812238.0")


from urllib2 import Http
h = Http()
headers = {'Connection':'keep-alive'}
 h.request('http://localhost:8989/blogQueryService/toDate?param1=1360812238.0','GET',None,headers=headers)

 

 

参考:HTTP Keep-Alive详解 

 

  • 大小: 174.1 KB
分享到:
评论

相关推荐

    Python网络编程中urllib2模块的用法总结

    一、最基础的应用 ...urllib2提供了request的类,可以让用户在发送请求前先构造一个request的对象,然后通过urllib2.urlopen方法来发送请求 import urllib2 url = r'http://www.baidu.com' req = urlli

    详解Python3网络爬虫(二):利用urllib.urlopen向有道翻译发送数据获得翻译结果

    接下来,详细看下urlopen的两个重要参数url和data,学习如何发送数据data 一、urlopen的url参数 Agent url不仅可以是一个字符串,例如:http://www.baidu.com。url也可以是一个Request对象,这就需要我们先定义一个...

    Python入门网络爬虫之精华版

    urllib2.install_opener(opener) # 安装opener,此后调用urlopen()时都会使用安装过的opener对象 response = urllib2.urlopen(url) 3.2 时间设置 适用情况:限制频率情况。 Requests,Urllib2都可以使用time库...

    学习笔记(29):21天通关Python(仅视频课)-案例实操:使用urllib模块读取网络资源及提交请求(上)…

    ''' urllib.request子模块下包含一个非常使用的urllib.request.urlopen(url,data=None)方法,该方法用于打开url指定...如需发送put、patch、delete等请求,此时需要使用urllib.request.Request来构建请求参数 构建Requ

    Python简单实现网页内容抓取功能示例

    本文实例讲述了Python简单实现网页内容抓取功能。分享给大家供大家参考,具体如下: 使用模块: import urllib2 ...#发送请求,获取结果 try: response = urllib2.urlopen(request) except BaseException, err:

    Python3爬虫发送请求的知识点实例

    使用urllib的request模块,我们可以方便地实现请求的发送并得到响应,本节就来看下它的具体用法。 1. urlopen() urllib.request模块提供了最基本的构造HTTP请求的方法,利用它可以模拟浏览器的一个请求发起过程,...

    python爬虫:请求页面基本库(一)urllib

    文章目录python爬虫:基本库(一)urllib使用urllib发送请求1.urlopen()添加data(附加数据)参数添加timeout(超时时间)参数2.Request()Request参数高级用法1.验证2.代理3.Cookies从网站中获取Cookies保存Cookies处理...

    一文带你了解Python 四种常见基础爬虫方法介绍

    向目标url发送请求 response=urllib.request.urlopen(url) #3.读取数据 data=response.read() # print(data) #打印出来的数据有ASCII码 print(data.decode('utf-8')) #decode将相应编码格式的数据转换成字符串 #...

    Python爬虫实现HTTP网络请求多种实现方式

    1、通过urllib.requests模块实现发送请求并读取网页内容的简单示例如下: #导入模块 import urllib.request #打开需要爬取的网页 response = urllib.request.urlopen('http://www.baidu.com') #读取网页代码 ...

    对Python发送带header的http请求方法详解

    简单的header ...response = urllib2.urlopen(request) print request.read() 包含较多元素的header import urllib,urllib2 url = 'http://example.com/' headers = { 'Host':'example.com', 'Connectio

    Scrapy学习笔记-基本库的使用urllib

    发送请求 使用urllib的request模块,我们可以方便地实现请求的发送并得到响应。本节就来看下它的具体用法。 urlopen urllib.request模块提供了最基本的构造HTTP请求的方法, 利用它可以模拟浏览器的一个请求发起过程...

    python服务器端收发请求的实现代码

    #res = urllib.urlopen('http://baidu.com'); #print res.headers #定义需要进行发送的数据 params = urllib.urlencode({'param':'6'}); #定义一些文件头 headers = {"Content-Type":"application/x-...

    Python爬虫——总结小知识点

    #向指定的url地址发送请求,并返回服务器响应的类文件对象 response = urllib.request.urlopen("http://www.baidu.com/") #服务器返回的类文件对象支持python文件对象的操作方法 #read()方法就是读取文件里面的全部...

    新手快看!python爬取数据+数据分析,这一篇就够了

    推荐用Jupyter 不需要导包 爬取二手车之家的部分数据 # 爬取二手车网站的数据 from bs4 import BeautifulSoup ...# 发送请求 f=urllib.request.urlopen(url) resp=f.read() # print(resp) # 203 # 网

    零基础写python爬虫之使用urllib2组件抓取网页内容

    类似于使用程序模拟IE浏览器的功能,把URL作为HTTP请求的内容发送到服务器端, 然后读取服务器端的响应资源。 在Python中,我们使用urllib2这个组件来抓取网页。 urllib2是Python的一个获取URLs(Uniform Resource ...

    python爬虫课程要点.docx

    request:最基本的HTTP请求模块,可以用来模拟发送请求。 2)Request url:请求地址,必传参数。 data:附加参数(from表数据),bytes字节流格式,如果是字典型(dict),先用urllib.parse.urlencode()编码。 headers...

    python网络爬虫入门之request.Request

    python网络爬虫入门之request.Request urllib.request.Request 作用 ... 什么是User-Agent该如何设置 ...2.发送请求获取响应对象(urlopen) 3.获取响应对象内容 代码实现 #导入模块 from urllib import re

    Python Handler处理器和自定义Opener原理详解

    我们之前一直都在使用的urlopen,这是一个特殊的opener...使用自定义的opener对象,调用open()方法发送请求。 如果程序里所有的请求都使用自定义的opener,可以使用urllib.request.install_opener()将自定义的opener对

    python爬虫的入门学习

    python爬虫的入门学习 ... response = request.urlopen(url地址) # 发送请求,返回一个响应对象 print(response.status) # 获取响应状态码 print(response.read().decode()) # 获取响应内容,并将

Global site tag (gtag.js) - Google Analytics