贝索斯的技术员编写的是一种纯自动化的爬虫脚本。 在互联网时代,一切讲究的是效率和速度,但是有时候,单纯的效率会催生出巨大的隐患。 任何网站的负载都是有限的,如果一个网站的登陆访问请求超过某个上限值,比如一秒......