爱死你了 发表于 2018-8-15 07:29:51

python3 requests 抓取乱码问题

  遇到此问题后 设置r.encoding='gbk'或r.encoding='gb2312'后可以了
  注意:gbk范围要比gb2312要大,设置gbk要好
  python用到中文转拼音的一个包 xpinyin,但用pyinstaller生成exe时,运行提示缺包,没解决
  python读取文件方式:
  读取:
  file = open('setUrl.txt','r')
  url = file.read()
  file.close()
  写入:不存在创建,每次打开写入时先清空再开始写入
  file = open('sql.txt','w') #‘w’是覆盖,‘a’是追加
  for i in strs:
  print(i)
  file.write(i + '\n')
  file.close()
  python模块安装方法:
  进入命令行直接输入 :pip install 包名
  python打包exe 方法
  进入程序目录,用pyinstaller打包,输入命令行:pyinstaller [-F] 打包python文件名.py
  该方式在迁移后不能修改.py文件,不推荐,暂没找到好方法,并且打包后运行会提示缺模块如“queue”要在py中引入“from multiprocessing import Queue”。
  python3中全局变量使用方式,主方法中声明,调用方法中再声明
  global 变量名
  def funcA():
  global 变量名
  一些网站可能简单屏蔽网页抓取,通过设置http请求标头,可实现抓取
    UserAgent = 'Mozilla/5.0 (Windows NT 10.0; WOW64; Trident/7.0; rv:11.0) like Gecko'  
    accept = '*/*'
  
    acceptLanguage = 'zh-Hans-CN, zh-Hans; q=0.8, en-US; q=0.5, en; q=0.3'
  
    acceptEncoding = 'gzip, deflate, sdch'
  
    Cookie = 'AD_RS_COOKIE=20083361; _trs_ua_s_1=em41_6_j0ywubts; _gscu_1771678062=91030129ufqfm619; _gscs_1771678062=9103012938hyzj19|pv:1; _gscbrs_1771678062=1; _trs_uv=23au_6_j0ywubts'
  
    Host = 'www.stats.gov.cn'
  
    CacheControl = 'no-cache'
  
    Connection = 'Keep-Alive'
  
    headers = { 'User-Agent' : UserAgent,'accept':accept,'accept-Encoding':acceptEncoding,'Accept-Language':acceptLanguage,'Cookie':Cookie,'Host':Host,'Cache-Control' : CacheControl,'Connection':Connection}
  
    s = requests.Session()
  
    s.headers.update(headers)
  
    req = s.get(url)
  
    req.encoding='gbk'
  网页抓取 解析html
  BeautifulSoup很好用,类似jquery选择器,可替代正则表达式
页: [1]
查看完整版本: python3 requests 抓取乱码问题