加入收藏 | 设为首页 | 会员中心 | 我要投稿 核心网 (https://www.hxwgxz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 教程 > 正文

Python爬取北京二手房数据,分析北漂族买得起房吗? | 附完整源码

发布时间:2018-08-22 21:09:06 所属栏目:教程 来源:徐麟
导读:技术沙龙 | 邀您于8月25日与国美/AWS/转转三位专家共同探讨小程序电商实战 房价高是北漂们一直关心的话题,本文就对北京的二手房数据进行了分析。 本文主要分为两部分:Python爬取赶集网北京二手房数据,R对爬取的二手房房价做线性回归分析,适合刚刚接触Py
副标题[/!--empirenews.page--] 技术沙龙 | 邀您于8月25日与国美/AWS/转转三位专家共同探讨小程序电商实战

房价高是北漂们一直关心的话题,本文就对北京的二手房数据进行了分析。

本文主要分为两部分:Python爬取赶集网北京二手房数据,R对爬取的二手房房价做线性回归分析,适合刚刚接触Python&R的同学们学习参考。

01、Python爬取赶集网北京二手房数据

Python爬取北京二手房数据,分析北漂族买得起房吗? | 附完整源码

入门爬虫一个月,所以对每一个网站都使用了Xpath、Beautiful Soup、正则三种方法分别爬取,用于练习巩固。数据来源如下:

Python爬取北京二手房数据,分析北漂族买得起房吗? | 附完整源码

Xpath爬取:

这里主要解决运用Xpath如何判断某些元素是否存在的问题,比如如果房屋没有装修信息,不加上判断,某些元素不存在就会导致爬取中断。

  1. import requests 
  2. from lxml import etree 
  3. from requests.exceptions import RequestException 
  4. import multiprocessing 
  5. import time 
  6.  
  7. headers = { 
  8.     'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36'} 
  9.  
  10. def get_one_page(url): 
  11.     try: 
  12.         response = requests.get(url, headers=headers) 
  13.         if response.status_code == 200: 
  14.             return response.text 
  15.         return None 
  16.     except RequestException: 
  17.         return None 
  18.  
  19. def parse_one_page(content): 
  20.     try: 
  21.         selector = etree.HTML(content) 
  22.         ALL = selector.xpath('//*[@id="f_mew_list"]/div[6]/div[1]/div[3]/div[1]/div') 
  23.         for div in ALL: 
  24.             yield { 
  25.                 'Name': div.xpath('dl/dd[1]/a/text()')[0], 
  26.                 'Type': div.xpath('dl/dd[2]/span[1]/text()')[0], 
  27.                 'Area': div.xpath('dl/dd[2]/span[3]/text()')[0], 
  28.                 'Towards': div.xpath('dl/dd[2]/span[5]/text()')[0], 
  29.                 'Floor': div.xpath('dl/dd[2]/span[7]/text()')[0].strip().replace('n', ""), 
  30.                 'Decorate': div.xpath('dl/dd[2]/span[9]/text()')[0], 
  31.                 #地址需要特殊处理一下 
  32.                 'Address': div.xpath('dl/dd[3]//text()')[1]+div.xpath('dl/dd[3]//text()')[3].replace('n','')+div.xpath('dl/dd[3]//text()')[4].strip(), 
  33.                 'TotalPrice': div.xpath('dl/dd[5]/div[1]/span[1]/text()')[0] + div.xpath('dl/dd[5]/div[1]/span[2]/text()')[0], 
  34.                 'Price': div.xpath('dl/dd[5]/div[2]/text()')[0] 
  35.             } 
  36.         if div['Name','Type','Area','Towards','Floor','Decorate','Address','TotalPrice','Price'] == None:##这里加上判断,如果其中一个元素为空,则输出None 
  37.             return None 
  38.     except Exception: 
  39.         return None 
  40.  
  41. def main(): 
  42.     for i in range(1, 500):#这里设置爬取500页数据,在数据范围内,大家可以自设置爬取的量 
  43.         url = 'http://bj.ganji.com/fang5/o{}/'.format(i) 
  44.         content = get_one_page(url) 
  45.         print('第{}页抓取完毕'.format(i)) 
  46.         for div in parse_one_page(content): 
  47.             print(div) 
  48.  
  49. if __name__ == '__main__': 
  50.     main() 

(编辑:核心网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读