q1208c 回复于:2004-01-29 11:37:01 |
有这么大的文件要传吗? 最好别这样,因为这么大的文件,要是中间有一点问题,又得重传。 |
allan0909 回复于:2004-01-29 11:41:31 |
因为要不断的向上写。。日积月累。。就大乐 |
Chuai 回复于:2004-01-29 11:42:32 |
可以采用ReiserFS文件系统,或者首先压缩再倒 |
allan0909 回复于:2004-01-29 11:48:24 |
压缩过也超过2G了 能不能通过写内核来取消掉这个限制啊? |
q1208c 回复于:2004-01-29 12:13:51 |
那就不能写成几个文件吗?太大的没什么好处。你想看都不容易。 |
allan0909 回复于:2004-01-29 14:16:42 |
我就是想知道怎么取消限制,并不是针对个别文件才问这个的 |
q1208c 回复于:2004-01-29 14:28:13 |
kernel 没有这个限制吧。我没找到。 |
allan0909 回复于:2004-01-29 14:46:38 |
有的。。。你可以找一个大文件试试看。 |
q1208c 回复于:2004-01-29 15:16:42 |
啊! 我可没这么大的要用。 |
Chuai 回复于:2004-01-29 15:45:59 |
是ext2文件系统的限制 |
q1208c 回复于:2004-01-29 15:49:19 |
不会吧,我看了ext2的,没找到呀! |
allan0909 回复于:2004-01-29 15:49:43 |
可是ext3一样不成啊 |
q1208c 回复于:2004-01-29 15:52:19 |
ext3也没有这个吧。我也没找到。是不是ftp 的限制呀? |
sakulagi 回复于:2004-01-29 15:53:38 |
ext2/ext3 本质上没有什么区别。单个文件都是不能超过2g的。你可以用ResiserFS. |
q1208c 回复于:2004-01-29 15:56:39 |
是么?我怎么没找到呀?在哪说的? |
好好先生 回复于:2004-01-29 15:58:31 |
ext3实际上就是ext2加上了日志功能。 |
q1208c 回复于:2004-01-29 15:59:50 |
我是说那个限制我没找到。 |
q1208c 回复于:2004-01-29 16:00:44 |
我刚建了个2.1G的文件呀! |
sakulagi 回复于:2004-01-29 16:04:05 |
http://e2fsprogs.sourceforge.net/ext2intro.html |
q1208c 回复于:2004-01-29 16:05:00 |
我刚刚 mv 了一下,也没什么问题呀! |
allan0909 回复于:2004-01-29 17:03:00 |
[quote:2b1974d8c5="sakulagi"]ext2/ext3 本质上没有什么区别。单个文件都是不能超过2g的。你可以用ResiserFS.[/quote:2b1974d8c5] 汗。。就算换成ResiserFS也要把现在机器里面的东西弄出去啊 |
好好先生 回复于:2004-01-29 17:04:36 |
我在网上找了半天得到的结论是从2.4的内核以上支持了ext3就可以支持超过2G的文件了。上传下载不了是因为ftp软件的问题。 |
q1208c 回复于:2004-01-29 17:04:50 |
楼主的意思是不能 ftp 下来 2G 的文件。看来是能有2G文件的,要不然楼主哪来的呀! 楼主能不能试试 nfs, samba 呀?我没试过能不能有这么大的文件。 |
好好先生 回复于:2004-01-29 17:06:07 |
http://bbs.chinaunix.net/forum/viewtopic.php?t=221240&highlight=2G |
allan0909 回复于:2004-01-29 17:09:22 |
2g的文件是可以有的,但是一传就是出错。无论什么传输方式。。测试过了,不是FTP的问题 |
q1208c 回复于:2004-01-29 17:10:17 |
这个有道理。我有空试试。 |
allan0909 回复于:2004-01-29 17:17:20 |
我直接get的啊 啥软件也没用。。 |
好好先生 回复于:2004-01-29 17:22:17 |
[quote:1e9fb27376="allan0909"]我直接get的啊 啥软件也没用。。[/quote:1e9fb27376]呵呵!get不是用ftp这个命令吗?这个命令有限制也不行啊! |
q1208c 回复于:2004-01-29 17:26:42 |
我刚刚试了 flashget ,果然不行。正在试别的。 |
sakulagi 回复于:2004-01-29 17:27:54 |
看来看的文档又过时了。hehe |
allan0909 回复于:2004-01-29 17:29:28 |
[quote:1261dae2bc="好好先生"]呛牵?et不是用ftp这个命令吗?这个命令有限制也不行啊![/quote:1261dae2bc] 汗。。小白了。。 |
好好先生 回复于:2004-01-29 17:29:31 |
这些东西更新太快了!搞IT的人就是累,总要学新东西。 |
代码罐头 回复于:2004-01-29 17:31:53 |
2G文件在LINUX下的FTP有问题 以前备份就是的.要用-b split 2000M参数.否则出来的文件没法放到别的地方去. 但是2G的文件FTP到WINDOWS服务器上是没有问题的 |
好好先生 回复于:2004-01-29 17:33:38 |
w2k好象有4G的限制。 |
sakulagi 回复于:2004-01-29 17:39:03 |
en , 我们来总结一下,这个限制实际上可能存在于哪几个地方? 【1】 ftp程序使用的数据结构的长度,比如u32_t, u64_t? 【2】 操作系统内核使用的数据结构的长度? 【3】 filesystem的block size?(看到讨论说如果linux使用16kB的blocksize的话,可以使用比2gb大的多的文件) http://www.ussg.iu.edu/hypermail/linux/kernel/0208.0/1277.html |
q1208c 回复于:2004-01-29 17:43:06 |
我觉得这可能是 ftp 的问题。因为在 solaris 上,mount 时有个 option 是 nolargefile ,这个 largefile 指的就是 2G 以上的大文件。别的系统我还不清楚。因为没用过。但我想 ftp 是 unix 下的,那可能和这个有关吧。因为我刚刚试了,能创建 3G 的文件。但就是不能 ftp 下来。我试了两个都不行。但在 linux 下可以 mv 的。 |
sakulagi 回复于:2004-01-29 17:51:16 |
你是用flashget的是么,那么是不是windows的限制? |
q1208c 回复于:2004-01-29 17:53:25 |
这个还不知道。过几天用 linux 再试试。 |
allan0909 回复于:2004-01-30 09:41:31 |
多谢多谢。。。试验ing。。过下把结果放上来 |