Closed petronny closed 8 years ago
不太可能有人用。bzip2 浪费 CPU 又浪费带宽。不压缩的 tar 浪费带宽,用例是本地打包然后安装。gzip 也没什么用。Arch 用户没有人没有 xz 吧?多节省一些带宽不好吗?
另外你不需要用这么多 .endswith
的。你可以 .endswith((a, b, c))
这样子。
另外光改这里不行的。你还得改 archrepo2,以及包摘取脚本和包清理脚本。
有时候一些本身就是高压缩的资源会用tar不压缩。。主要是数据向的包(比如壁纸包?) 其实用gz,bz2我也并不能理解。。
time makepkg -scCf # E3-1245v1
.pkg.tar: 5 seconds 326MB
.pkg.tar.gz: 13 seconds 207MB
.pkg.tar.xz: 88 seconds 188MB
这是hadoop包的数据,虽然我觉得都开了并行以后这些时间除24以后没什么差别。。。
话说我pacman -U 一个4G的包(matlab)时,正在加载软件包这一步要卡2个小时。。是解压缩的原因吗,还是正在疯狂算md5什么的。。?
我也不清楚啊。你去看看源码呗。
好吧是卡在了lib/libalpm/be_package.c build_filelist_from_mtree()这个函数了 里面生成filelist实在是慢的要死
噢我想起来了,能不能直接让lilac在PKGBUILD里面自动加上unset PKGEXT呢? 相比之下还是不需要加的包的多是吧。。 那还是改lilac.py好了。。。
话说包摘取脚本和包清理脚本在哪。。
@petronny 在 BitBucket 上的私有仓库……
额。。是有什么不能公开的配置吗。。
没,主要是历史原因。
求开源。。
同求,一直希望能看到……
@petronny @zsrkmyn 有空帮忙加 README。
wow 居然是 haskell 写的
gzip和bzip2都是base组的,很可能有人用 不打包的也有 剩下的不在base里面,就不添加了
PS.没有跑过。。不知道写的对不对。。