laravel如何去爬网页上的数据
我昨天用QueryList 插件去拉取线上的数据,因为那个网站的有些数据是通过接口调用后填充的,我用这个插件获取到的数据就是0,
我就想有没有一个插件能拉取到网页已经结束后的所有页面?
大家都是怎么去爬网页数据的?
selenium +php
我记得QueryList文档里有说,怎么爬取JS渲染的页面,是个插件
找到了
github.com/jae-jae/QueryList-Commu...
这个跟laravel没啥关系哦 分析接口模拟请求散
你直接接口请求数据 复制成 cURL 格式,然后放到 postman 中就可以一键生成代码了.
关于登录,如果接口不方便登录的话, 可以尝试使用 火车浏览器 进行模拟登录然后把 cookie 保存下来,再构造请求.
用GOlang,直接模拟浏览器,想采集什么都有!而且可以并发采集!
用 guzzle 手动写请求呗,就是有点累
headless puppeteer
请求带上cookie session 或者token,可能还需要自己做一下登录
我自己在网上稍微学了点
Python
,主要是用的BeautifulSoup
这个库,主要是解析html
节点,一开始里面的参数尽量都按照最小的来,确定正确再调整,中间设置好sleep
时间,因为我这种没有那种IP
代理,我也只会简单的爬取导出csv
。用
scrapy
吧