如果需要多线程(多端口)下载网页,保证下载速度和网页解析速度和开发速度的在合理的范围之内,哪一款语言是最优的。
golang 并发使用最强的,在正则匹配速度,爬虫软件包的丰富程度上和 perl 、python 还有不小差距。
pyhon 的异步下载引擎貌似使用不是特别方便(个人对 pyhon 不熟,勿喷)
php 有 https://github.com/walkor/Workerman 这样的高性能网页服务器框架,有没有易用的爬虫框架?
node.js 异步下载貌似很强大,有没有大型爬虫项目使用 node.js 做爬虫,同时网页解析,文件处理,unicode 转码全部使用这个语言的爬虫案例?
perl 有一个 mojo::useragent 配合 libEV ,并发能力很强大。perl 在文本正则处理、文本编码转换,网页 dom 解析都有成熟的处理方案和软件包,这个是目前作者最喜欢的平台。
c# 据说是最强大爬虫平台,没接触多少。
java 平台性能很强劲,软件包也丰富,笔者知之甚少。
rust 貌似爬虫全套组件都有,而且比较新。貌似可以做出极致压榨硬件性能的方案。
![]() |
1
shuimugan 140 天前 ![]() 不一定要 all in one ,任务调度、发送请求、解析内容、数据入库等可以用微服务的理念拆分开来,这样也方便扩展和重构,这玩意没有万金油的。
从事件驱动的玩法上看,在异步里面做 cpu 复杂度高的计算都会降低时间循环的效率,所以解析复杂度高的东西都是拆分出去的,避免阻塞发送请求的代码。 如果你观察过云服务商的 serverless ,你会发现它们那些通过队列事件触发的函数本质上也是一个 http 函数,因为可以和 api 网关 /k8s 结合,在更新版本时候可以把新流量导到新版本上,老版本等原有的 http 连接都关闭完就销毁。 我目前在用 Node.js 写的爬虫也是这么设计的,目前是基于 NestJS 这个 web 框架做爬虫,结合 nsq 做任务调度,每个外发请求都是用 http 接口来触发,用 traefik 做网关和灰度切换,再结合 k8s 和部署和健康检查做滚动更新。 目前用的到库: jsonata:用来解析复杂 json ,降低代码复杂度 cheerio:服务端的 jquery ,在 python 有 BeautifulSoup ,在 java 有 jsoup ,也是类似的功能 cld:语言检测,在 python 里有 langdetect 不过也准备重构了,目前碰到的问题是任务堆积多了之后内存涨得快回落得慢,说白了就是 gc 回收不及时,打算先用 C# 把调度和发送请求的部分重构一下,再不行就换 rust ,解析和入库还是用回 nodejs 。 |
![]() |
2
dfgddgf OP ![]() @shuimugan 这个思路新奇,复杂的问题拆解为更为简单的基础问题。
这是 linux shell 编程的基本思路。 您的观点可以得到验证。在异步的环境里做网页解析,确实占用率比较高。大概异步使用高精度的时间作为时间的区分标准,不停地查询 io 状态,这个比较耗费资源。 按照这样的逻辑推断。应该把异步交给一个专门的组件(软件)来搞,而同步的工作、大量耗费 cpu 资源的用队伍列表的方式使用常规的软件来搞。 学习了。这种专业的问题,只有资深专家,做过大型项目的前辈才能了解其中的诀窍。 |
![]() |
3
LeeReamond 140 天前
爬虫没有什么特定一个阶段兴起快速抢占市场的问题,所以基本上市占率比较高的就是好用的。
另外 python 异步挺简单的,确实只是你不了解而已 |
4
laolaowang 140 天前
golang
|
![]() |
5
focuxin 140 天前
Nodejs ,DOM 和 JavaScript 的优势
|
![]() |
6
ciming 140 天前
前几天好看到一个 nodejs 的爬虫框架
https://crawlee.dev/ |
7
bl4ckoooooH4t 140 天前 ![]() 我这的做法是把要抓取的 url 放 redis ,Python 多线程从 redis 取任务爬取,结果通过 kafka 给下游解析。 可以分布式部署。目前 3 台机器,带宽在 50MB~100MB/s 左右,每日爬 200w url 左右。
|
![]() |
8
MEIerer 140 天前
Python 爬虫大概是最简单的
|
9
xz410236056 140 天前
虽然我是喜欢 golang 的。但是 Python 的库是真他妈强,你数据搞下来不得处理吗,Python 数据处理的库功能是真强。
“pyhon 的异步下载引擎貌似使用不是特别方便” Python 的逻辑是有需要你开多个进程,同进程内用协程,多线程属于骗自己。 |
11
encro 140 天前
当然 Scrapy 也许仍然是最简单容易的分布式爬虫。
一般的爬虫需要异步吗? 答案是重点要考虑架构异步,而不是程序上的异步。 就是说要考虑分布式任务调度 /并发防重爬 /广度有限 OR 深度优先这样的问题,而不是爬虫代码里面多写几个 await 。 |
![]() |
12
ragnaroks 140 天前
任何可以调用 chromium 的语言都是最佳
|
13
lmshl 140 天前
不考虑生态的话我觉得是 NodeJS ,7-8 年前我就开始用它写爬虫了
考虑生态的话应该是 Python |
14
tulongtou 140 天前 via iPhone
自己熟练的才是最佳的
|
![]() |
15
shenjinpeng 140 天前
十多年前网络小说最火那会, 满大街 PHP 盗版小说网站, 小说内容全是爬虫采集的,
|
![]() |
16
sunwei0325 140 天前 via iPhone ![]() 爬的好的都在里面踩缝纫机呢吧
|
18
zbatman 140 天前
有请八方辩手入场
|
![]() |
19
v2yllhwa 140 天前 via Android
@xz410236056 python io 时释放 gil 锁,多线程爬虫也还好吧
|
![]() |
20
kaiger 140 天前
scrapy 我感觉挺简单的
|
![]() |
21
wangtian2020 140 天前
最佳的爬虫语言是你最擅长最熟悉的语言
因为我只会 nodejs ,随意就是它了 |
22
tzar 140 天前
无意义的问题
|
![]() |
23
zhuangzhuang1988 140 天前
熟悉啥语言用啥。
|
24
dcsuibian 140 天前 ![]() 我觉得是 Node.js ,毕竟 web 本来就是 js 的主战场
1 、对 JSON 的处理好得不得了(毕竟就是来源于 js 的) 2 、方便处理 DOM ,这基本就是前端的工作 3 、异步支持极好(因为 js 的单线程特性,不异步就卡死了) 4 、部分网页的 DOM 其实是 js 生成的,如果你选的就是 js ,那么会比较熟悉 5 、puppeteer 、playwright 这种爬虫杀手锏,都是优先支持 js 的 我是先学的 Python 的 Scrapy ,然后又用了 Node.js 。 我感觉 Node.js 不需要什么爬虫框架,直接 axios 请求下来,然后 cheerio 解析就好了。(最主要是可以复用写前端的经验) 唯有对速度不敢确定,因为我都限制请求频率的,怕踩缝纫机 |
25
Dganzh 140 天前
写 Go 的人喜欢造轮子,是时候造一个大而全的爬虫框架了
|
![]() |
27
dailixin359 140 天前
用 PHP 的话 https://github.com/kiddyuchina/Beanbun 这个是基于 Workerman 的爬虫框架
或者使用 swoole 的一些框架也 OK |
![]() |
29
placeholder 140 天前 ![]() 要做爬虫就先用当前技术栈做呗,性能差能差到哪去,
你给性能整上去了给人网站干崩了,你性能再好有屁用 反正都是偷着爬,最多尊重一下 robots 文件 |
30
Aumujun 140 天前
单站爬虫的速度倒是其次,能取到数据就是最好的结果,慢点都无所谓;也就是用啥都一样,性能要求不会太高(至少没有高到你换语言的程度)
|
![]() |
31
815979670 140 天前
php 有一个 querylist 用起来还挺方便的 写数组就行了 http://querylist.cc/
|
![]() |
32
777777 140 天前
golang ,我们现在日均 1500w 网站
|
![]() |
33
herozzm 140 天前
我觉得是 go ,多线程完美匹配多线程爬虫
|
34
Jirajine 140 天前
爬虫这种经常变化的场景,不宜用静态语言,尤其不宜用 rust 这种类型严格的静态语言。
|
35
haolongsun 140 天前
如果真的有时间来学习的话,就 all in rust 吧,rust 的网络库质量非常的高,库的作者专门研究 http 的.
|
![]() |
36
kkocdko 140 天前
rsshub ,使用 nodejs 的大型(中型)爬虫项目。
|
![]() |
37
we9ta 140 天前
必须是易语言,不接受反驳
|
![]() |
38
charmToby 140 天前
上招聘 APP ,搜索关键字爬虫,绝大部分都是 Python 。
|
39
terranboy 140 天前
一般的随便什么语言都一样, 要爬真正有价值的内容 还得整合浏览器进去 , 想要性能就得堆机器
|
![]() |
40
iwh718 140 天前 via Android
perl
|
41
zzzkkk 140 天前
@815979670
用 puppeteer 写了个爬虫 美区 3000 个 lambda 用 php guzzlehttp 根本起不来 3000 个链接 最后用 aws go client 解决了 php 真的步 per 后尘了 |
![]() |
42
dfgddgf OP @zzzkkk guzzle 看了一些源代码,底层貌似没有依赖 c 或者 c++
应该是底层没有设计成高度可靠的组件。 perl 的爬虫模块 mojo::useragent 配合 libEV ,确实很强大。 cygwin 平台并发 50 轻轻松松,而且还保持 http 连接可以复用 |
![]() |
43
sunnysab 140 天前 via Android
还真用 rust 写过爬虫,是先拿 Python 做原形,然后用 rust 重写。rust 的网页解析性能和浏览器相当,但是 python 明显慢多了(数秒,不可接受)。
不过 rust 里解析 HTML 的代码不好看,也不排除是我思想没转过弯用了太多 unwrap()。😂😂 |
44
Cbdy 140 天前 via Android
我只知道 Google 搜索引擎的爬虫主要是 C++和 Java 写的
|
45
zzzkkk 140 天前
@dfgddgf
perl 已死 倒闭了活该 there is more than one way to do it , 不要说控制结构 连变量在不同 context 都取不同的值 增加码农的大脑 负担 |
![]() |
48
yekern 140 天前
php querylist 可以写好规则就可以了. 同时可以支持插件扩展, 支持无头浏览器
|
![]() |
49
laravel 140 天前
我在用 nodejs 写爬虫,用 puppeteer cheerio axios 这些库,都是针对特定网站写爬虫。
|
![]() |
50
buyan3303 140 天前
熟悉哪种编程语言,就用哪种语言的爬虫框架。
多数学 python 的人,使用的是 scrapy 。python 以及 scrapy 有较为丰富的教程,我曾经就一边看着某课网的爬虫实战教程,一边自己学着爬虾米音乐,即使有些内容不适配,但是那个实战教程,从采集到入库一成套都教了,还教了 xpath lxml 匹配失败的原因之类的东西。 |
![]() |
51
shyling 140 天前
爬虫种类多啊。。
爬量的和爬有保护的内容的不一样 |
![]() |
52
fuxkcsdn 140 天前
反正不是 python 就对了,python 除了 bs 库比较好用外,并没看出有啥特别的优势
加上现在 cdp 协议的普及,很多反爬还是得靠 cdp 来实现,cdp 就是 nodejs 的地盘了 |
53
ljtnine 140 天前
aiohttp
|
![]() |
54
www5070504 140 天前
肯定是库多 省事的那个 爬虫性能大多数浪费在 io 上 啥语言性能也不会有明显优势
|
![]() |
55
zzl22100048 140 天前
@ljtnine aiohttp 这个库 bug 太多了
|
![]() |
56
xieren58 140 天前
nodejs + playwright + cheerio, 谁使用谁知道. (刑
|
57
ljtnine 140 天前
@zzl22100048 啊?我用这个库写过一个简单的爬虫,还没遇到过问题
|
58
wxf666 140 天前
@zzl22100048 有啥 bug 吗?我用这个库爬了好多小说了
@dfgddgf 我提供一个 Python 异步 + 多线程 的数据: 环境:Redmi Note 5 (高通骁龙 636 )的 Linux Deploy 里,Debian 11 arm64 ,Python 3.10 ,百兆 WIFI ,电池供电 流程:sqlite3 读取网址,aiohttp 并发下载多个章节,json 解析,每本书所有章节合并成一个 json ,编码成 UTF-16 ,多线程 lzma 压缩,每一千本保存一个 tar 速度:峰值 700 章节 /秒(每个章节需下载一个页面,大约在凌晨 3 点 ~ 7 点) |
![]() |
59
ox180 140 天前
js
|
![]() |
60
Aloento 140 天前
看需求吧,我个人用的是 C#,自带的那个 driver 是真的强大
|
![]() |
61
uqf0663 140 天前
如果有一天 楼上的人熟悉易语言,就会知道论搞爬虫这方面,在易语言面前楼主列的这些外国玩意都是渣渣。
|
![]() |
62
zzl22100048 140 天前
|
63
duke807 140 天前 via Android
python
|
![]() |
64
tikazyq 140 天前
python
|
![]() |
65
tikazyq 140 天前
比较 popular 的爬虫合集,不用谢
https://github.com/BruceDone/awesome-crawler |
66
wxf666 140 天前
@zzl22100048
> 高并发下有概率出现读取 tcp 流的异常和 broken pipe 异常; Emm 。。反正我做了错误检测,超时 /错了就重试。也不知道频不频繁 > session 不能携带之前的 cookie ; 也没注意这个问题,因为爬的小说不要求登录。。 |
![]() |
67
locoz 139 天前 via Android
想用啥用啥啊,为什么要局限于一个语言?语言只是个工具而已
|