https://github.com/DormyMo/SpiderKeeper
主要实现 scrapy 工程的部署,抓取任务状态监控,定时启动爬虫等功能
支持多个 scrapyd 服务 ,方便爬虫集群的管理
后续等功能完善了之后 想支持更多爬虫框架来着
|      1allinwonder      2017-04-13 10:44:43 +08:00 很厉害啊,用什么写的? | 
|      2modm OP @allinwonder flask | 
|      3xss      2017-04-13 11:31:51 +08:00 看着比 scrapyd 要好用... | 
|      4simapple      2017-04-13 11:33:47 +08:00 v2 上真是爬虫玩家多 而且高端玩家多 | 
|      5yanzixuan      2017-04-13 11:34:27 +08:00 怒赞。 | 
|      6qile1      2017-04-13 12:12:53 +08:00 via Android windows 系统可以用不? | 
|  |      7xrlin      2017-04-13 12:24:28 +08:00 via iPhone 第 111 个赞 | 
|  |      10im67      2017-04-13 14:31:27 +08:00 ui 可以的 | 
|  |      11forever139      2017-04-13 15:27:24 +08:00 哈哈,前排支持 | 
|  |      12bestrenxs      2017-04-13 19:24:31 +08:00 先赞一个! | 
|  |      13netChen      2017-04-14 10:01:50 +08:00 楼主强大,做成了我一直想做但却做不成的事,前排支持,然后给星 | 
|  |      14qsnow6      2017-04-19 10:27:10 +08:00 非常好用! 作者的 Issues 回复的也很快 | 
|      15diveandwatch      2017-12-01 10:44:05 +08:00 请问,上传那个 egg 是 build-egg 生成的 egg,还是 scrapyd-deploy 成功之后自己生成的那个 egg 文件 | 
|      16diveandwatch      2017-12-01 14:30:07 +08:00 爬出来的数据放在 dbs 里面的 sqlite 数据库了吗?可是用可视化工具读不出来数据。 | 
|      17Redips      2018-04-24 14:07:15 +08:00 不错,就是删除任务再新建,会提示达到最大工作量,而且人物也删除不掉 | 
|      18baitongda      2019-02-01 16:48:23 +08:00 我想知道你是用了什么 python 的管理框架吗。 |