手把手教你用Python采集腾讯招聘数据

系统运维2025-11-05 08:37:4024

本文转载自微信公众号「菜J学Python」,手把手教作者游世九黎 。集腾据转载本文请联系菜J学Python公众号。讯招

大家好,聘数我是手把手教J哥~(本文来自好友投稿)

今天我们爬取腾讯招聘网站Python岗位的招聘信息。如图所示:

然后还是集腾据先看一下最终的IT技术网结果,我们保存到csv文件中。

爬取1000条数据,讯招第一行是title:

老规矩,我们还是走流程。

01需求分析

抓取腾讯招聘网站Python相关岗位数据,聘数打开目标网站,F12打开开发者工具,发现岗位信息不在网页源码中,很明显是在XHR中的json数据。

正好对应页面十条数据,站群服务器手把手教接下来就好办了。集腾据

02发送请求

找到url的讯招页面规律,

第一页url:https://careers.tencent.com/tencentcareer/api/post/Query?timestamp=1620561777984&countryId=&cityId=&bgIds=&productId=&categoryId=&parentCategoryId=&attrId=&keyword=python&pageIndex=1&pageSize=10&language=zh-cn&area=cn 

index参数对应值即为页码,所以循环得到url链。

def getPage(self):         url_list = []         for i in range(100):             url = self.url.format(i + 1)             url_list.append(url)         return url_list 

03解析页面

得到url链之后我们循环遍历发起请求,聘数得到json数据,将json数据转换成字典,并解析数据。

for url in urlList:             resp = requests.get(url,手把手教 headers=self.headers)             data = resp.content.decode(utf-8)             dic_data = json.loads(data)             dic_data_list = dic_data["Data"]["Posts"]             for i in dic_data_list:                 work_list.append(i) 

这样就得到了岗位信息数据。

04保存数据

得到了岗位数据之后我们需要把它保存到本地,集腾据这里我们把数据保存到本地csv文件中。

try:             with open(Tx_work.csv,讯招 w, encoding=utf-8, newline=) as f:                 writer = csv.DictWriter(f, self.title)                 writer.writeheader()                 writer.writerows(dic)                 print(写入成功)         except Exception as e:             print(e) 

05运行程序

if __name__ == __main__:     tx = Tx(base_url,hd,titles)     tx.run() 

小伙伴们可以对Python岗位的岗位需求好好分析结合自身技术栈,最后希望大家都能找到好工作。香港云服务器

本文地址:http://www.bzuk.cn/html/345c32699328.html
版权声明

本文仅代表作者观点,不代表本站立场。
本文系作者授权发表,未经许可,不得转载。

全站热门

如何使用苹果设备分享WiFi密码给其他手机(简单实用的方法和步骤,让你轻松共享网络连接)

Linux shell用法和技巧详解

如何在Linux上实现文件系统的自动检查和修复?

黑客利用 Ray 框架漏洞,入侵服务器,劫持资源

用电脑做系统XP教程光盘,轻松学习配置系统(自学成才,操作简单,教程详细易懂)

如何利用Libguestfs修复受损虚拟机?

系统管理员如何使用Webmin管理Linux服务?

新的勒索软件团伙 Muliaka 瞄准俄罗斯企业

友情链接

滇ICP备2023006006号-33