Board logo

标题: [网络连接] [已解决]批处理可以获得网页中附件的链接地址吗? [打印本页]

作者: QIAOXINGXING    时间: 2011-11-8 22:26     标题: [已解决]批处理可以获得网页中附件的链接地址吗?

本帖最后由 QIAOXINGXING 于 2011-11-15 16:58 编辑

浏览器打来一个页面,批处理可以获得这个网页中附件的链接地址吗?

我们学校的论坛的有个音乐板块,大家分享的音乐都不错,但是一个一个页面听太麻烦。音乐附件(MP3之类)的
链接地址可以用windows media player 打开直接听。 我想用批处理批量获取那些歌的链接做成wmplayer的播放列表。
作者: awk    时间: 2011-11-8 22:35

给个页面做测试
作者: sxw    时间: 2011-11-8 22:57

可以,本搜索批量下载
作者: QIAOXINGXING    时间: 2011-11-8 23:16

给个页面做测试
awk 发表于 2011-11-8 22:35


比如说这个  http://bbs.bathome.net/thread-11930-1-1.html
作者: QIAOXINGXING    时间: 2011-11-8 23:18

可以,本搜索批量下载
sxw 发表于 2011-11-8 22:57



    我是菜鸟,况且搜索出来有十几页,您还是直接点吧
作者: sxw    时间: 2011-11-8 23:26

for + set +wget
把你的网页 源文件 贴出来一部分???
或用三方工具
  1. type a.html|geturls
复制代码

作者: awk    时间: 2011-11-9 11:41

回复 4# QIAOXINGXING


你是想下载那个附件“下载百度MP3中的top500.rar”吗?
作者: QIAOXINGXING    时间: 2011-11-9 15:20

回复  QIAOXINGXING


你是想下载那个附件“下载百度MP3中的top500.rar”吗?
awk 发表于 2011-11-9 11:41


也不是。是这样的,我们学校的论坛的有个音乐板块,大家分享的音乐都不错,但是一个一个页面听太麻烦。音乐附件(MP3之类)的
    链接地址可以用windows media player 打开直接听。 我想用批处理批量获取那些歌的链接做成wmplayer的播放列表。
作者: QIAOXINGXING    时间: 2011-11-10 10:55

for + set +wget
把你的网页 源文件 贴出来一部分???
或用三方工具
sxw 发表于 2011-11-8 23:26



    用 geturls 是不是必须保存网页?而且,网页源码里没有附件的链接地址。
wget  应该是下载用的吧,怎么获取链接?
用   
wget "d:\"  http://bbs.bathome.net/thread-11930-1-1.html
无法下载。
作者: sxw    时间: 2011-11-10 11:26

回复 9# QIAOXINGXING


    geturls需要把网页保存为htm(l)格式,即保存为文件,
wget --help
作者: bluewing009    时间: 2011-11-10 23:38

本帖最后由 bluewing009 于 2011-11-10 23:40 编辑

参考vbs获取网页源码,然后findstr /C:".mp3"即可获得全部音乐链接(获取后可能需要提取一下)忘记了说一句,这种方式仅适合那种已有链接网页,如果是开另一个页面的话,需要获取页面网址再下载
作者: QIAOXINGXING    时间: 2011-11-10 23:42

参考vbs获取网页源码,然后findstr /C:".mp3"即可获得全部音乐链接(获取后可能需要提取一下)忘记了说一句 ...
bluewing009 发表于 2011-11-10 23:38



    用curl获取源码,登陆问题貌似是个难题。
   用vbs能解决登陆问题??
作者: lxh623    时间: 2011-11-11 10:02

网页链接获取器
我试验了,可以,复制地址到上面,enter。
只能一页一页的获取。
作者: QIAOXINGXING    时间: 2011-11-12 17:51

网页链接获取器
我试验了,可以,复制地址到上面,enter。
只能一页一页的获取。
lxh623 发表于 2011-11-11 10:02



    谢谢!但是一页一页获取太不靠谱了
作者: QIAOXINGXING    时间: 2011-11-12 17:54

回复 10# sxw


用这句
  wget -O 33.html   “url”
得到的是没有登陆状态下的 .html,这又怎么整??
作者: bluewing009    时间: 2011-11-12 18:08

回复 12# QIAOXINGXING


    还要登陆?
作者: QIAOXINGXING    时间: 2011-11-12 19:48

回复  QIAOXINGXING


    还要登陆?
bluewing009 发表于 2011-11-12 18:08



    对啊,是论坛啊
作者: sxw    时间: 2011-11-12 20:35

回复 15# QIAOXINGXING


    那用 curl 试试,没用过。。。。
作者: QIAOXINGXING    时间: 2011-11-12 20:57

本帖最后由 QIAOXINGXING 于 2011-11-12 21:09 编辑
回复  QIAOXINGXING


    那用 curl 试试,没用过。。。。
sxw 发表于 2011-11-12 20:35



    试过了,坛里有一个关于这个的帖子, 登陆貌似是个难题啊。。。。
http://www.bathome.net/viewthread.php?tid=7261
作者: lxh623    时间: 2011-11-12 21:29

曾经用迅雷批量下载网页。有些是登陆后的页面,有些不是。




欢迎光临 批处理之家 (http://www.bathome.net/) Powered by Discuz! 7.2