楼主: sunoson
收起左侧

[讨论] 乃们认为金山网盾是通过什么方法防钓鱼的?

  [复制链接]
Lgwu
头像被屏蔽
发表于 2010-7-26 15:49:08 | 显示全部楼层
回复 8楼 tiejun  的帖子

既然tiejun在,询问一个关于网盾的问题。一直怀疑网盾对恶意网址的拦截同样是靠黑名单,
因为对于某些已失效的地址依然在报。经过测试毒霸论坛上某些网址可以看到这点。而这里
说是服务端会自动抓取网页,就需要在用户打开前先get或post回源码来进行鉴定。这就需要
消耗一个段来完成该操作。从而增加用户打开网页所需的时间。对于挂马网址,用户打开访
问到的几率很小,也就是说鉴定这段时间多数属于无意义消耗。金山是如何考虑需求优先,主推
“服务端会自动抓取网页”的呢?
   

tiejun
发表于 2010-7-26 15:54:59 | 显示全部楼层
拦截挂马的优先级更高,首先是行为分析,脚本分析,而这一块儿是在客户端完成的。

把挂马攻击过滤掉,最后一层是黑网址过滤。去掉黑网址需要时间,所以,会出现你说的那种情况,失效网址也会被报,这个需要URL地址列表更新,服务端隔一段时间会反查验证URL清单是否有效。
leobluelion
发表于 2010-7-26 16:02:41 | 显示全部楼层
自动抓取啊?那不就像google,百度那样用爬虫爬网页~~呵呵~~
Lgwu
头像被屏蔽
发表于 2010-7-26 16:03:59 | 显示全部楼层
行为分析,脚本分析,黑网址过滤要完成,肯定优先级要高。也就是要在用户真正打开网页之前完成。
根据鉴定结果返回是阻止或无提示继续访问。这还回到了开头我疑惑的,鉴定这段时间多数属于无意义消耗。
并且几率上要占大大部分。
如果行为分析,脚本分析鉴定是安全的,为何还要启用黑名单拦截呢?
Lgwu
头像被屏蔽
发表于 2010-7-26 16:06:16 | 显示全部楼层
回复 12楼 tiejun  的帖子

“服务端会自动抓取网页”不是实时分析用户所访问的网页,只是如13楼所说,用爬虫
自己去爬网页,进而收集到库?
   
leobluelion
发表于 2010-7-26 16:15:32 | 显示全部楼层
回复 15楼 Lgwu  的帖子


    我觉得是如果是用户访问的话就实时分析,如果是自动的话就用爬虫~
Lgwu
头像被屏蔽
发表于 2010-7-26 16:18:45 | 显示全部楼层
回复 16楼 leobluelion  的帖子

“服务端会自动抓取网页”是实时分析还是爬虫自动抓需要tiejun同志给予解释。
开始我以为说的是实时分析,所以回复的是实时分析存在的缺点。想知道金山
是如何处理 “鉴定这段时间多数属于无意义消耗” 这个问题的。
   
leobluelion
发表于 2010-7-26 16:32:12 | 显示全部楼层
回复 17楼 Lgwu  的帖子


    用爬虫抓取所需进行实时分析吧~~就算用爬虫,你还是要分析才知道结果滴~~你说对不对?
Lgwu
头像被屏蔽
发表于 2010-7-26 16:35:28 | 显示全部楼层
回复 18楼 leobluelion  的帖子

还有时效的问题,如果是爬虫,如果保证库内黑名单时效性。偶一直怀疑网盾还是仅仅基于黑名单库。所以希望金山官方能就这个问题给个确切答案。现在看来,貌似tiejun同志跑了。[:26:]
   
蓝天白云520
头像被屏蔽
发表于 2010-7-26 16:36:11 | 显示全部楼层
回复 17楼 Lgwu  的帖子


    我来回答一下:网盾拦截挂马网页依靠本地防御,拦截钓鱼靠黑名单。所以拦截钓鱼时根本不存在无效时间消耗;而拦截挂马必然要消耗时间,但这为了安全是必要的,这和所有杀软的实时防御一个道理:杀软的实时防御99%的时间在消耗无用资源,但这又是必须的。安软公司能做的仅仅是尽量减少这些消耗而不能消除
您需要登录后才可以回帖 登录 | 快速注册

本版积分规则

手机版|杀毒软件|软件论坛| 卡饭论坛

Copyright © KaFan  KaFan.cn All Rights Reserved.

Powered by Discuz! X3.4( 沪ICP备2020031077号-2 ) GMT+8, 2025-6-8 00:06 , Processed in 0.092849 second(s), 14 queries .

卡饭网所发布的一切软件、样本、工具、文章等仅限用于学习和研究,不得将上述内容用于商业或者其他非法用途,否则产生的一切后果自负,本站信息来自网络,版权争议问题与本站无关,您必须在下载后的24小时之内从您的电脑中彻底删除上述信息,如有问题请通过邮件与我们联系。

快速回复 客服 返回顶部 返回列表