本文由 vps网友提供,转载请注明出处
本文链接: https://www.vpsvsvps.com/discuss/a/1676471632912191488.html
没有Mac版的货,连第一步都进行不了。何况。。。我还真不太敢注册360。。。偏见好重。。
说到jshare 有人塞各种蓝光 都是几十上百G的的啊 - - 见过单套有200G的
@xdeng 就是你的第一条,用户用不满拿到的资源。那时候上传都是用rar把资源打包,文件内添加论坛tag,内部添加3%容错,切割成1g一个包,所以基本上来说是唯一数据。
@chapters 你 @ 的是我那一条信息?建议@Livid @ 加上层数 不然不知 @ 哪层@chapters 很好奇你的是什么独一无二的数据。。。 我觉得其实还可以这样设计 如超过 1g 的文件 可以考虑 整个文件分成1G为一段 来hash 这样又可以减少数据了。
前段时间买容量的悲剧了,好吧,其实也不悲剧,几毛钱,哈哈.
@rrfeng 必须有的,服务器只保留一份文件就行,每个用户保存文件的索引
@rrfeng 这个太简单了,利用文件指纹技术就可以知道是不是同一个文件
@rrfeng 每次都对比算好的,只要记录hash值就可以了@cxe2v sha1现在用的比较多吧
@xdeng 那是你浅见了,资源发布论坛的盆友们在没有送1t的时候用10g一个账号都塞了上t了。曾经megaupload有我塞的两百G,115我有塞400G左右。。还有以前一个jsharer就更多了。不用随机数据,不要小看用户。当然人人用到那么多是不现实,但不代表没人能用到
@rrfeng 每个文件会进行MD5值对比,只要一样就会只存一份
@xdeng 怎么可能有这种机制……等上亿文件的时候,对比一遍就累死它了
连mac版本都没有也好意思
360 的东西,谁敢用?
@rrfeng zero 你觉得有效? 不能相同啊! 相同只有一份的 ,搞不好他们呢还可以分段存一份
@est urandom 费 cpuzero 就可以了
@xdeng 四个金山t盘塞满,嫌不够。这回又囤了六个0.5tb的百度盘……
@xdeng 写个脚本把 /dev/urandom 上传到360,然后同步到baidu。满满的。
其实送 用户真正用到的没有1T的! 除非有人恶意弄出一些随机数来!
360 还是有点怕怕
看到360怎么不敢注册呢