文章
2049

今天又被知乎恶心到了,然后有个想法

关于定时爬取知乎热门社会性事件问题下的内容

经常发生社会性新闻后,知乎上的东西就会被删掉。关键是被删的回答和问题总是很“精华”的。 因此我在想,既然全站爬取知乎内容比较难,为何不搞一个项目专门在热点事件发生时,第一时间让爬虫去监控对应的知乎问题下的所有内容呢?

然后把数据公开。比如利用Github API存到Github上。当然,提供良好的前端页面的话,就更好了。

类似这个项目:http://206.189.252.32:3838/Wechatscope/ http://206.189.252.32:3838/

这个项目还算比较有意义吧。怎么样,有没有技术大佬搞的? 我也把这个想法发到其他地方,比如联系下品葱的那群大佬。

菜单
  1. 懦夫斯基  

    比如联系下品葱的那群大佬。

    现今知道了榴梿就是小二,再看这句话,真是忍俊不禁,忍不住挖个坟。

  2. 小二   默认开启批量屏蔽受限用户发言功能,可在设置中手动取消。

    爬知乎貌似很容易啊,一堆现成的轮子。不过怕就怕在三天两头被封ip,这就很烦。

  3. glow  

    @millionray #4 参见此帖https://2049bbs.xyz/t/1482

  4. millionray  

    @懦夫斯基 #1 不懂就问:之前本站和pincong发生过什么事儿吗,榴莲为什么是小二?

  5. 大口吃牛排  

    知乎是小布尔乔亚大本营,有水平的见解远远比你想象得要少。爬那些抖机灵的回答没意义。

  6. 厠所管理員  

    现在的知乎真的跟贴吧一样了