如何阻擋搜尋網站用 robot 抓取網頁~

看板FreeBSD作者時間21年前 (2005/01/08 06:01), 編輯推噓0(000)
留言0則, 0人參與, 最新討論串1/10 (看更多)
一般來說都是設定 robots.txt 即可~ 但是要放在哪裡才能真正作用? Apache 裡的 Document Root 指定的位置就好... 還是說連 Visual Host 的每個路徑都要? 而且發現, robots.txt 對大陸的 baidu(百度: http://www.baidu.com/)無效~ 但是 baidu 抓取的資料量又是最多的(死大陸仔)~ 有沒有辦法可以阻擋? -- ※ Origin: 陽‧光‧椰‧林 <alway.twbbs.org> ◆ From: www.me.isu.edu.tw(140.127.180.130)
文章代碼(AID): #11tmQT00 (FreeBSD)
討論串 (同標題文章)
文章代碼(AID): #11tmQT00 (FreeBSD)