MozTW 討論區
https://forum.moztw.org/

[問題]scrapbook的問題
https://forum.moztw.org/viewtopic.php?f=11&t=7508
1 頁 (共 1 頁)

發表人:  waiting [ 2005-04-03, 23:47 ]
文章主題 :  [問題]scrapbook的問題

想請教scrapbook在抓網頁時,是再回去網站抓,還是真接從local的cache裡抓?

因為用proxy進入鎖ip的醫學網站
單用firefox的功能都無法抓圖、存網頁
但是用scrapbook輕而易舉地就辦到了
因此有點擔心scrapbook用多了,會不會引起網站注意,進而鎖ip,若是影響到其他同事的權益就糟了

還請知道的版友幫忙解惑一下,先謝啦!

發表人:  BobChao [ 2005-04-04, 01:25 ]
文章主題 : 

mmm... 如果我沒看錯的話 他會回去抓...
(我是開 LiveHTTPHeader 看他有沒有去送表頭,不過我不太清楚這樣算不算「證據」)

發表人:  路人乙 [ 2005-04-04, 06:03 ]
文章主題 : 

沒錯,是「再回網站抓一次」,我用監控軟體看的...抓了兩次。 :roll:

發表人:  waiting [ 2005-04-04, 12:03 ]
文章主題 : 

謝謝兩位啦
看來不能隨心所欲地亂抓網頁了……

發表人:  BobChao [ 2005-04-04, 12:44 ]
文章主題 : 

waiting 寫:
謝謝兩位啦
看來不能隨心所欲地亂抓網頁了……

白爛的想法:先切到離線模式再抓

發表人:  Yus [ 2005-04-04, 13:12 ]
文章主題 : 

不過說到這,我倒有一個小疑問
因為套件Nuke Anything可以配合scrabook
先使用Nuke Anything將頁面上某些東西隱藏後
如果點擷取時,擷取的頁面其實是已被Nuke Anything處理後的畫面
如果是獨立重該網址重新擷取,那我的想像中應該是完全全新的頁面內容才對啊。

(其實我一直以為是利用暫存檔的技術呢@@")

發表人:  waiting [ 2005-04-06, 23:01 ]
文章主題 : 

BobChao 寫:
白爛的想法:先切到離線模式再抓


果然先斷線再抓也抓得下來
看來scrapbook可以兩路抓網頁

發表人:  hcj1 [ 2005-04-13, 22:10 ]
文章主題 : 

喀喀喀快取有就到快取,無則從原始網頁,不過如果快取本身不完全那抓下的也不完全!
喀幾次抓下的小說都是這樣的 :!:

1 頁 (共 1 頁) 所有顯示的時間為 UTC + 8 小時
Powered by phpBB® Forum Software © phpBB Group
https://www.phpbb.com/