查看: 3277|回复: 16
收起左侧

[求助] 怎样把单个网页里的所有链接抓取成一个清单

[复制链接]
oshusho
发表于 2015-1-22 23:24:03 | 显示全部楼层 |阅读模式
如题。
最好是DOS模式,直接使用命令行,将抓取的清单输出到list.txt文件
就好像是FLASHGET3.1自带的“站点资源探索器”,它就可以把链接全抓取出来。但是只可以复制,不能输出,操作起来就要一个个网页下载再打开。

求大侠帮助啊
momimo
发表于 2015-1-24 21:12:05 | 显示全部楼层
ff就可以啊
oshusho
 楼主| 发表于 2015-1-24 22:57:54 | 显示全部楼层
ff是什么啊?
oshusho
 楼主| 发表于 2015-1-25 03:42:56 | 显示全部楼层

ff是什么啊?谢谢老大
bb19491001
头像被屏蔽
发表于 2015-1-25 08:50:31 来自手机 | 显示全部楼层
oshusho 发表于 2015-1-25 03:42
ff是什么啊?谢谢老大

火狐浏览器
momimo
发表于 2015-1-25 11:14:58 | 显示全部楼层
不好意思,我犯了说简称的坏毛病,是firefox………抱歉
oshusho
 楼主| 发表于 2015-1-25 11:18:16 | 显示全部楼层

谢谢两位
FF可以有DOS命令行格式功能吗?
希望可以使用DOS的批命令,请指点
thelord
发表于 2015-1-26 19:39:53 | 显示全部楼层
命令行一般分两步:下载网页,分析网页
下载可以用wget.exe,分析可以用批处理

现成的工具找到一个,Scrapy命令行
不过要安装python运行环境
参观者
发表于 2015-1-26 22:18:27 | 显示全部楼层
你百度一下“网站整站下载器”

可以把一个网站照搬到你的电脑上
oshusho
 楼主| 发表于 2015-2-19 20:52:26 | 显示全部楼层
参观者 发表于 2015-1-26 22:18
你百度一下“网站整站下载器”

可以把一个网站照搬到你的电脑上

谢谢,我是希望按自己的设置收集网站的资源,全站下载确实用不到的
您需要登录后才可以回帖 登录 | 快速注册

本版积分规则

手机版|杀毒软件|软件论坛| 卡饭论坛

Copyright © KaFan  KaFan.cn All Rights Reserved.

Powered by Discuz! X3.4( 沪ICP备2020031077号-2 ) GMT+8, 2024-11-24 19:39 , Processed in 0.134718 second(s), 16 queries .

卡饭网所发布的一切软件、样本、工具、文章等仅限用于学习和研究,不得将上述内容用于商业或者其他非法用途,否则产生的一切后果自负,本站信息来自网络,版权争议问题与本站无关,您必须在下载后的24小时之内从您的电脑中彻底删除上述信息,如有问题请通过邮件与我们联系。

快速回复 客服 返回顶部 返回列表