首次公开二十种黑帽seo技术!( 七 )


7、外链群发
利用脚本或软件工具在网络上各个平台进行大批量的外部链接群发、建立 。吸引搜索引擎对该网站的关注及关键词排名、权重的提升 。随着现在算法的不断更新,现在外链群发的效果完全不如以前了 。当然,现今各大搜索引擎对群发早就有了针对性的检测与评判标准,也会进行处罚,所以不建议大家再使用此方法 。并且还要提防别人对你的网站使用 。当然群发的方式还有很多,就不一例举了 。
十六:蜘蛛陷阱

首次公开二十种黑帽seo技术!

文章插图
蜘蛛陷阱
首次公开二十种黑帽seo技术!
蜘蛛陷阱
蜘蛛陷阱是阻止蜘蛛程序爬行网站的障碍物,通常是那些显示网页的技术方法,目前很多浏览器在设计的时候考虑过这些因素,所以可能网页界面看起来非常正常,但这些蜘蛛陷阱会对蜘蛛程序造成障碍 。如果消除这些蜘蛛陷阱,可以使蜘蛛程序收录更多的网页 。蜘蛛陷阱也是以前常常使用的黑帽方式之一,就是用一些动态网站代码中,写一个无线循环的页面,使得蜘蛛爬进去后在这个无穷循环中轮回收录,这样虽然会使得网站疾速进步排名,但也会随时给我们网站带来k站的影响,所以建议大家最好不要使用 。特别是搜索引擎频繁调整算法的时期 。
搜索引擎蜘蛛抓取结构原理在此也简单为大家介绍几种易导致蜘蛛陷阱的建站技术:
1,Flash动画
有得网站喜欢在首页放一个Flash动画片头、用户访问网站看完片头后被转向得真正得HTML版本得文字网站首页 。但搜索引擎不能读取Flash、一般也没办法从FlashIntro跟踪到HTML版本页面 。如果Flash效果是必需得、至少也需要在首页加上一个通往HTML版本得链接 。这个链接应该是在Flash文件之外得HTML代码中、搜索引擎跟踪这个链接可以抓取后面得HTML版本页面 。
2. Session ID
有些网站使用Session ID跟踪用户访问、每个用户访问网站时都会生成独特唯一得SessionID、加在URL中 。搜索引擎蜘蛛的每一次访问也会被当成一个新得用户、URL中会加上一个不同得SessionID ,这样搜索引擎蜘蛛每次来访问时所得到得同一个页面得URL将不一样、后面带着一个不一样得SessionID,这也是最常见得蜘蛛陷进之一 。这样就会产生了同一个页面但URL不同的情况,但这种方法会产生复制内容页面,造成了高度重复的内容页 。
3、框架结构
对搜索引擎来说、方位一个使用框架得网址所专区得HTML只包含其他HTML文件得代码、并不包含任何文字信息、搜索引擎根本无法判断这个网址得内容是什么 。虽然蜘蛛可以跟踪框架中所调用得其他HTML文件、但是这些文件经常是不完整得页面、比如没有导航只是正文 。搜索引擎也无法判断框架中的页面内容应该数属于主框架、还是属于框架调用文件 。
4、动态URL
动态URL指得是数据库驱动得网址所生成得、带有问号、等号及参数得网址 。一般来说动态URL不利于搜索引擎蜘蛛爬行、应该尽量避免 。有的url会造成蜘蛛的死循环 。
5.JS链接
由于JavaScript可以创造出很多吸引人得视觉效果、有些网址喜欢使用Javascript脚本生成导航系统 。这也是比较严重得蜘蛛陷阱之一 。虽然搜索引擎都在尝试解析JS脚本、不过我们不能寄希望于搜索引擎自己去克服困难、而要让搜索引擎跟踪爬行链接得工作尽量简单容易 。
6、要求登录
有些网站内容放在需要用户登录之后才能看到得会员区域、这部分内容搜索引擎无法看到 。蜘蛛不能填写用户名、密码、也不会注册 。
7、强制使用Cookies
有些网站为了实现某种功能、如记住用户登录信息、跟踪用户访问路径等、强制用户使用Cookies、用户浏览器如果没有启用Cookies、页面显示不正常 。搜索引警蜘蛛就相当于一个禁用Cookies得浏览器、强制使用Cookies只能造成搜索引擎蜘蛛无法正常访问 。
十七:虚伪链接
大家都知道蜘蛛都是依照连接地址去发行的,对于虚假连接蜘蛛是很厌恶的,好比说一个页面,当蜘蛛进去后,里面除了关键词别的内容什么都没有,又比如你是做网上食品店的,你为了吸引人进你的网站,外链锚文本用淘宝啊、最新电影啊等词来吸引人,总而言之,反正链接文不对题带有一定的欺骗性质的都可以说是虚伪链接 。
这样一来蜘蛛也就会被逼迫爬行并且收录,固然蜘蛛无奈辨认你的网站是否是虚假连接,但是搜索引擎一旦发现,你的网站也会被k掉,并且这样做对用户体验非常不好 。如果你的网站不是· 为短期性盈利的网站,完全不必这么做 。


推荐阅读