#1 - 2021-6-30 01:59
bangumi大西王 (天生万物以养人,人无一物以报天)
本帖消息大概晚了一个月(
方法就是把现有的数据库做成种子,每个种子100G左右。发动群众做种,保证每个种子都有一定的做种人数。(一开始的目标是每个种子三人做种,现在的目标是10人。)
两句话版本的如何参与:
这个网页 https://torrent-health-vue.pages.dev/ 上会显示比较少的做种数的种子。 如果点进去看到有种子显示的话直接下载作种就可以了。
如果默认没显示任何种子又想参与,可以调高右上角的filter的数值,会显示更多做种数的种子,选最低的开始下就好了。
(不过种子的链接是被墙的,可以直接用哈希值拼接成磁链,记得添加trackers)
更详细介绍删掉了,见6楼的回复。
nas上面挂了两个种
libgen还有不少相关工具,还没仔细研究相关的工具链,不知道有没有什么工具在本地有数据的时候直接检索本地数据。
方法就是把现有的数据库做成种子,每个种子100G左右。发动群众做种,保证每个种子都有一定的做种人数。(一开始的目标是每个种子三人做种,现在的目标是10人。)
两句话版本的如何参与:
这个网页 https://torrent-health-vue.pages.dev/ 上会显示比较少的做种数的种子。 如果点进去看到有种子显示的话直接下载作种就可以了。
如果默认没显示任何种子又想参与,可以调高右上角的filter的数值,会显示更多做种数的种子,选最低的开始下就好了。
(不过种子的链接是被墙的,可以直接用哈希值拼接成磁链,记得添加trackers)
更详细介绍删掉了,见6楼的回复。
nas上面挂了两个种
libgen还有不少相关工具,还没仔细研究相关的工具链,不知道有没有什么工具在本地有数据的时候直接检索本地数据。
也可能这只是我美好的愿望
我就是觉得现成的轮子已经一大堆了,把所有pdf放上去就行…
一个块应该是十万篇的论文,不打包的话文件数量太多了。
https://www.reddit.com/r/DataHoa ... pen_science_we_are/
scihub 的法律现状
https://www.reddit.com/r/scihub/ ... can_scihub_be_shut/
如果关心 scihub,请关注更官方的最新消息
https://www.reddit.com/r/scihub/
https://twitter.com/ringo_ring?lang=en
拉人给 scihub 的数据搞饱和式备份不是坏事,但是用这种狼来了的恐吓式拉人法不行
100G 级别的种子对不玩 pt 的一般网友来说不轻松,从上个月知乎第一篇爆款专栏开始我看到有不少没接触过 bt 的网友的朴素善意被利用,硬着头皮去加群学 qbittorrent 配置腾硬盘空间去做种。。
如果有狼真的来了的那一天,今天这些炒作假危机的的知乎账号都是损害 scihub 能召起的潜在群众力量的凶手
目前(我所知的)最有效率的获取新文章的途径是找作者要,基本没人会拒绝
万幸已经要退坑了
为什么要用sci-hub,对Web of Science有什么不满意吗?
为什么要用sci-hub,对收费整合各地渠道有什么不满意吗?
为什么要用sci-hub,对动动手动动嘴皮子找别人要有什么不满意吗?
(真要说一般需求的话百度学术都够用了。那些真正的科研狗哪个电脑里没十几二十个数据库啊
虽然学校买了各种数据库,但我平时不住学校,数据库用起来也不是很方便。如果需要付费我就会直接去sci-hub下载。
之前尾巴是这样的