MozTW 討論區 https://forum.moztw.org/ |
|
[問題]scrapbook的問題 https://forum.moztw.org/viewtopic.php?f=11&t=7508 |
第 1 頁 (共 1 頁) |
發表人: | waiting [ 2005-04-03, 23:47 ] |
文章主題 : | [問題]scrapbook的問題 |
想請教scrapbook在抓網頁時,是再回去網站抓,還是真接從local的cache裡抓? 因為用proxy進入鎖ip的醫學網站 單用firefox的功能都無法抓圖、存網頁 但是用scrapbook輕而易舉地就辦到了 因此有點擔心scrapbook用多了,會不會引起網站注意,進而鎖ip,若是影響到其他同事的權益就糟了 還請知道的版友幫忙解惑一下,先謝啦! |
發表人: | BobChao [ 2005-04-04, 01:25 ] |
文章主題 : | |
mmm... 如果我沒看錯的話 他會回去抓... (我是開 LiveHTTPHeader 看他有沒有去送表頭,不過我不太清楚這樣算不算「證據」) |
發表人: | 路人乙 [ 2005-04-04, 06:03 ] |
文章主題 : | |
沒錯,是「再回網站抓一次」,我用監控軟體看的...抓了兩次。 ![]() |
發表人: | waiting [ 2005-04-04, 12:03 ] |
文章主題 : | |
謝謝兩位啦 看來不能隨心所欲地亂抓網頁了…… |
發表人: | BobChao [ 2005-04-04, 12:44 ] |
文章主題 : | |
waiting 寫: 謝謝兩位啦
看來不能隨心所欲地亂抓網頁了…… 白爛的想法:先切到離線模式再抓 |
發表人: | Yus [ 2005-04-04, 13:12 ] |
文章主題 : | |
不過說到這,我倒有一個小疑問 因為套件Nuke Anything可以配合scrabook 先使用Nuke Anything將頁面上某些東西隱藏後 如果點擷取時,擷取的頁面其實是已被Nuke Anything處理後的畫面 如果是獨立重該網址重新擷取,那我的想像中應該是完全全新的頁面內容才對啊。 (其實我一直以為是利用暫存檔的技術呢@@") |
發表人: | waiting [ 2005-04-06, 23:01 ] |
文章主題 : | |
BobChao 寫: 白爛的想法:先切到離線模式再抓
果然先斷線再抓也抓得下來 看來scrapbook可以兩路抓網頁 |
發表人: | hcj1 [ 2005-04-13, 22:10 ] |
文章主題 : | |
喀喀喀快取有就到快取,無則從原始網頁,不過如果快取本身不完全那抓下的也不完全! 喀幾次抓下的小說都是這樣的 ![]() |
第 1 頁 (共 1 頁) | 所有顯示的時間為 UTC + 8 小時 |
Powered by phpBB® Forum Software © phpBB Group https://www.phpbb.com/ |