#1 - 2019-5-14 17:37
狂犬榨汁姬艾莉丝 (いつでも微笑みを)
工具一:
来自本站的@hjhee 大佬的tiebaSpider 。
保存迅速,可以批量操作,去除无用元素,信息密度高。

https://github.com/hjhee/tiebaSpider
但好像只是保存html,图片仍然是引用百度,并没有保存到本地。b38

工具二(只能查看,暂不能保存。由于百度封锁WAP版漏洞,17年之前帖子已不能查看。):
mikutools https://miku.tools/tools/tieba_2017
#2 - 2019-5-14 21:33
(啊~我可真是个变态啊~)
谢谢鸭,请问以前的贴能看吗
#2-1 - 2019-5-14 21:38
狂犬榨汁姬艾莉丝
现在好像可以看到自己收藏的帖子了,但是进不去。可是右键复制链接,得到帖子ID,然后用wap版访问:http://tieba.baidu.com/mo/m?kz=[帖子ID] 。
#3 - 2019-5-15 01:18
这个工具没有保存图片,是浏览器根据文件内的图片链接下载之后展示在本地的。
现在要是想把图片也保存在本地的话,可以通过浏览器打开网页然后选择网页另存为,这样浏览器就会自动把所有图片和网页打包成一个html文件。

这个工具是我学习go语言时候编写的,等以后有时间会考虑加上保存图片的功能。
#3-1 - 2019-5-16 04:10
yypenguin
看了说明还是不太明白怎么用
#3-2 - 2019-5-16 04:48
hjhee
yynopenguin 说: 看了说明还是不太明白怎么用
把介绍重写成正常的中文了
#4 - 2019-5-19 21:52
(那之后,时光流逝……)
(bgm38)工具二因为度受的傻逼操作是不是相当于报废了,然后工具一……没学过代码和编程的,谁来告诉我个铁憨憨该怎么操作?
#4-1 - 2019-5-19 21:59
狂犬榨汁姬艾莉丝
需要获取的帖子在url.txt中逐行指定。程序读取程序所在目录下的文件url.txt获取贴吧URL,逐行爬取URL指向的帖子。除了http协议的URL之外还支持file协议,file协议格式参考url.txt已有的URL。此功能主要用于验证程序功能或者调整HTML模板样式。所有已提取的帖子将命名为file_{帖子主题}.{json,html}保存至程序所在目录下的output文件夹。
1. 在url.txt中输入要保存的帖子的网址,一行一个。
2. 点击运行tiebaspider.exe 。
#4-2 - 2019-5-19 22:03
狂犬榨汁姬艾莉丝
忘了说,先下载下来。
点“releases”那一栏,下载“win64.7z”,解压。
#4-3 - 2019-5-20 13:10
新岛二厘
九重凛 说: 1. 在url.txt中输入要保存的帖子的网址,一行一个。
2. 点击运行tiebaspider.exe 。
(bgm38)我说怎么感觉不对劲,最开始想都没想直接点界面里clone or download下回来连个exe都没有。这咋整啊萌新不会啊.jpg原来我下错了,丢人退群了
#4-4 - 2019-5-20 13:14
新岛二厘
九重凛 说: 1. 在url.txt中输入要保存的帖子的网址,一行一个。
2. 点击运行tiebaspider.exe 。
(bgm74)输入网址保存→启动exe→一闪而过,output文件夹为空。这是不是等于宣告死刑了?原帖子都没了那种?
#4-5 - 2019-5-20 13:19
狂犬榨汁姬艾莉丝
新岛2cm 说: 输入网址保存→启动exe→一闪而过,output文件夹为空。这是不是等于宣告死刑了?原帖子都没了那种?
原帖子没了那就没了啊,17年之前的现在是没办法查看了。(bgm38)
#4-6 - 2019-5-20 13:19
狂犬榨汁姬艾莉丝
新岛2cm 说: 输入网址保存→启动exe→一闪而过,output文件夹为空。这是不是等于宣告死刑了?原帖子都没了那种?
你看看原帖打不打得开啊?
#4-7 - 2019-5-20 14:49
新岛二厘
九重凛 说: 你看看原帖打不打得开啊?
原贴子点了后直接跳到该吧首页,百度我T……