V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
推荐学习书目
Learn Python the Hard Way
Python Sites
PyPI - Python Package Index
http://diveintopython.org/toc/index.html
Pocoo
值得关注的项目
PyPy
Celery
Jinja2
Read the Docs
gevent
pyenv
virtualenv
Stackless Python
Beautiful Soup
结巴中文分词
Green Unicorn
Sentry
Shovel
Pyflakes
pytest
Python 编程
pep8 Checker
Styles
PEP 8
Google Python Style Guide
Code Style from The Hitchhiker's Guide
bighead22
V2EX  ›  Python

通过 robots.txt 的 sitemap 来抓取一个网站当天新产生的 URL 很方便

  •  
  •   bighead22 · 2019-01-10 15:40:14 +08:00 · 1498 次点击
    这是一个创建于 2149 天前的主题,其中的信息可能已经有所发展或是发生改变。

    有的网站有 sitemap 文件,本就是给百度这类爬虫看的,会把当天新产生的 URL 和最近更新的 URL 放在 sitemap 文件里,这样就不用整过遍历网站,节约单宽,尤其是大型网站有上千万,过亿页面这类网站,通过抓取 sitemap 来发现新增 URL 比较有效。 就像这篇文章说的一样: https://www.yuanrenxue.com/crawler/crawler-tricks-3.html

    bighead22
        1
    bighead22  
    OP
       2019-01-10 16:10:03 +08:00
    这算不算是个骚操作?
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   5518 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 31ms · UTC 03:30 · PVG 11:30 · LAX 19:30 · JFK 22:30
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.