前几个月玩跨域的Ajax玩得不亦乐乎(莫喷我额。。。),做了各种Crawler(爬虫,专门去查了一下这个词,其实我以前都喜欢用Spider,觉得萌一些,吼吼~~不过说到爬行的东西我第一反应是Creeper zzZ~~)。因为我的Javascript技术还是属于“一瓶子不满,半瓶子摇”的状态,所以好多抓来的页面我都会先填到一个隐藏div里,再用jQuery抓想要的元素,这样挺省事的,不过效率极差,凑合能用;这时候我就在想,要是直接把Ajax到的String直接转化成HTML Document对象,再用jQuery直接操作岂不是很完美,于是各种上百度Google一下Being,终于让我找到了如下方法:

var htmldoc=new DOMParser().parseFromString(data,"text/html");

    这样就不需要write到页面上了,直接在内存里就可以做任何操作了(各种恶心蛋疼的正则。。。话说我发现页面代码混乱有助于遏制Crawler)。看来我对Javascript的对象思想的理解又加深了。

 

本文章系受著作权法保护,未经著作人同意,不得盗用;使用或引用本文章内容请注明作者名、原地址:书中叶http://www.cnblogs.com/libook

相关文章:

  • 2021-12-05
  • 2021-06-26
  • 2022-12-23
  • 2021-10-13
  • 2022-12-23
  • 2022-02-19
  • 2021-05-31
  • 2021-10-13
猜你喜欢
  • 2022-12-23
  • 2021-09-24
  • 2021-09-06
  • 2021-06-15
  • 2021-11-02
  • 2022-12-23
相关资源
相似解决方案