本项目仅作为学习项目,禁止商用!
前言
本项目通过爬去58同城页面解析HTML获取房源信息,通过公众号客服消息通知订阅对应城市的用户有新发布的房源信息,项目功能很简单,大致分为三部分:
- 58同城二手房源数据爬去解析
- 公众号页面
- 后台房源数据获取,用户管理,房源推送,充值
爬虫最早是用python scrapy编写的,但是考虑到推送功能多个异步通知,后面就改成了java使用jsoup进行爬取解析。
项目还有一部分小bug,但作为学习项目还是够够的。
公众号二维码不放了,直接搜索【黑客找房】可以体验一下,目前业务基本停止运行,公众号仅有展示功能。
开始旅程
源码传送门: HiHouse
爬取的页面:
公众号推送示例:
列表页面
技术
后台
相关技术
- spring boot
- mybatis
- mongodb
- xxl-job
- redis
- jsoup
- swagger
项目结构
sawgger接口文档
xxl-job控制台
前端
- vue
- vant
- axios
- vue-router
为啥只用到这么些技术,别问,问就是我只会这一些
友情传送,之前写的几个小项目:
HiTop热榜 :HiTop热榜
图床小程序前后端开源:图床小程序前后端开源
Python实现云之家自动签到:Python实现云之家自动签到
java实现算法推荐:Mahout实践:java实现算法推荐:Mahout实践
标签:java,项目,找房,房源,公众,开源,推送,页面 来源: https://blog.csdn.net/w77996/article/details/112862857
本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享; 2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关; 3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关; 4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除; 5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。