lygyh9985825 发表于 2015-4-23 07:24:02

Python天天美味(28)

  一、打开一个网页获取所有的内容



from urllib import urlopen
doc = urlopen("http://www.baidu.com").read()
print doc  

  二、获取Http头



from urllib import urlopen
doc = urlopen("http://www.baidu.com")
print doc.info()
print doc.info().getheader('Content-Type')  

  三、使用代理
  1. 查看环境变量



print ""n".join(["%s=%s" % (k, v)for k, v in os.environ.items()])
print os.getenv("http_proxy")  

  2. 设置环境变量



import   os
os.putenv("http_proxy",   "http://proxyaddr:")  

  3. 使用代理



# Use http://www.someproxy.com:3128 for http proxying
proxies = {'http': 'http://www.someproxy.com:3128'}
filehandle = urllib.urlopen(some_url, proxies=proxies)
# Don't use any proxies
filehandle = urllib.urlopen(some_url, proxies={})
# Use proxies from environment - both versions are equivalent
filehandle = urllib.urlopen(some_url, proxies=None)
filehandle = urllib.urlopen(some_url)  
  Python   天天美味系列(总)
  Python   天天美味(26) - __getattr__与__setattr__
  Python   天天美味(27) - 网络编程起步(Socket发送消息)
  Python   天天美味(28) - urlopen   
  Python   天天美味(29) - 调用VC++的动态链接库(DLL)
  Python   天天美味(30) - python数据结构与算法之快速排序
..
页: [1]
查看完整版本: Python天天美味(28)