[筆記]用 DreamHost 拖超大檔
家裏的"種花 1M/64K ADSL"
最近到國外抓檔總是碰到永遠跑不快的超級龜速,
一個檔案有2、3GB,而他老兄不管開幾線永遠只有2、30KB/Sec的速度在跑,
好歹也給個90、100嘛,不然不管怎麼算,沒抓個三天三夜可是抓不完的!
怎麼辦? 升速?還完債前不可能。 放棄他?不要~
就用 DreamHost 拖吧!
有提供 Shell 的虛擬主機真好用,連超級新手都可以玩的很開心。
最簡單的作法,當然是: wget http://xxx.xxx/xxx.tar.gz 啦!
每秒有6、7MB在跑耶~ 可是檔案大小那邊怎麼是負數?
是的,DH主機裡的 wget 版本是 1.9.x 還不支援超過2GB的檔案。 Orz
想自己編譯一份1.10.x版的wget又跟你說權限不足啥的,我又懶得改…
接著找到 破解2GB的限制
改用 lynx -dump http://xxx.xxx/xxx.tar.gz > xxx.tar.gz
不過不知道為啥吐出來一個壞掉的檔案 T_T
經過好一陣子的尋找 發現了 cURL 參考資料來源
等東西拖回家後,如果在Linux下,可以直接下 cat filenama.part* > NewFileName 結合
Windows下有個 ConCat/Split 可以裝來用,
要在 文字命令列 裡下"copy /b SrcFile1+SrcFile2 [+SrcFileN] DestnFile"
等檔案生出來就完成了
最近到國外抓檔總是碰到永遠跑不快的超級龜速,
一個檔案有2、3GB,而他老兄不管開幾線永遠只有2、30KB/Sec的速度在跑,
好歹也給個90、100嘛,不然不管怎麼算,沒抓個三天三夜可是抓不完的!
怎麼辦? 升速?還完債前不可能。 放棄他?不要~
就用 DreamHost 拖吧!
有提供 Shell 的虛擬主機真好用,連超級新手都可以玩的很開心。
最簡單的作法,當然是: wget http://xxx.xxx/xxx.tar.gz 啦!
每秒有6、7MB在跑耶~ 可是檔案大小那邊怎麼是負數?
是的,DH主機裡的 wget 版本是 1.9.x 還不支援超過2GB的檔案。 Orz
想自己編譯一份1.10.x版的wget又跟你說權限不足啥的,我又懶得改…
接著找到 破解2GB的限制
改用 lynx -dump http://xxx.xxx/xxx.tar.gz > xxx.tar.gz
不過不知道為啥吐出來一個壞掉的檔案 T_T
經過好一陣子的尋找 發現了 cURL 參考資料來源
curl -r 0-100000 -o "新檔名" "來源網址" & \說明
curl -r 100001-200000 -o "新檔名" "來源網址" & \
curl -r 200001 -o "新檔名" "來源網址" &
-r:要下載的檔案的範圍 注意:從0開始喔~
-o:重新命名抓下來的檔案
&:表示在背景執行
\:表示指令未完下行待續
20001:從200001bytes開始抓到檔案結束。
等東西拖回家後,如果在Linux下,可以直接下 cat filenama.part* > NewFileName 結合
Windows下有個 ConCat/Split 可以裝來用,
要在 文字命令列 裡下"copy /b SrcFile1+SrcFile2 [+SrcFileN] DestnFile"
等檔案生出來就完成了
0篇回應:
發表回應
<< 回 空島之門