Block or remove pages using a robots.txt file
The Generate robots.txt tool is going away. You can create a robots.txt file manually, or use one of the many robots.txt generation tools on the web.
A robots.txt file restricts access to your site by search engine robots that crawl the web. These bots are automated, and before they access pages of a site, they check to see if a robots.txt file exists that prevents them from accessing certain pages. (All respectable robots will respect the directives in a robots.txt file, although some may interpret them differently. However, a robots.txt is not enforceable, and some spammers and other troublemakers may ignore it. For this reason, we recommend password protecting confidential information.)
To see which URLs Google has been blocked from crawling, visit the Blocked URLs page of the Crawl section of Webmaster Tools.
You need a robots.txt file only if your site includes content that you don't want search engines to index. If you want search engines to index everything in your site, you don't need a robots.txt file (not even an empty one).
While Google won't crawl or index the content of pages blocked by robots.txt, we may still index the URLs if we find them on other pages on the web. As a result, the URL of the page and, potentially, other publicly available information such as anchor text in links to the site, or the title from the Open Directory Project (www.dmoz.org), can appear in Google search results.
In order to use a robots.txt file, you'll need to have access to the root of your domain (if you're not sure, check with your web hoster). If you don't have access to the root of a domain, you can restrict access using the robots meta tag.
บล็อก หรือลบหน้าเว็บที่ใช้ไฟล์ robots.txt
สร้างเครื่องมือ robots.txt จากไป คุณสามารถสร้างไฟล์ robots.txt ด้วยตนเองหรือใช้หนึ่งในหลาย robots.txt รุ่นเครื่องมือบนเว็บ .
ไฟล์ robots.txt จํากัดการเข้าถึงเว็บไซต์ของคุณโดยใช้เครื่องมือค้นหาหุ่นยนต์ที่รวบรวมข้อมูลเว็บ บอทเหล่านี้ได้โดยอัตโนมัติ และก่อนที่จะเข้าถึงหน้าเว็บของเว็บไซต์ที่พวกเขาตรวจสอบเพื่อดูว่าหุ่นยนต์ไฟล์ txt ที่มีอยู่ที่ป้องกันพวกเขาจากการเข้าถึงหน้าเว็บบางหน้า . ( หุ่นยนต์ที่น่านับถือทุกคนจะเคารพคำสั่งในไฟล์ robots.txt แม้ว่าบางคนอาจตีความต่างกัน อย่างไรก็ตาม , robots.txt ไม่ได้บังคับใช้ และมีผู้ส่งจดหมายขยะและสร้างปัญหาอื่น ๆอาจไม่สนใจมัน ด้วยเหตุนี้เราขอแนะนำรหัสผ่านป้องกันข้อมูลที่เป็นความลับ
)ดูที่ URL ที่ Google ได้ถูกปิดกั้นจากคลาน , เข้าเยี่ยมชม URL ที่ถูกบล็อกหน้าของข้อมูลในส่วนของเครื่องมือเว็บมาสเตอร์
คุณต้องไฟล์ robots.txt เท่านั้นหากเว็บไซต์ของคุณมีเนื้อหาที่คุณไม่ต้องการเครื่องมือค้นหาดัชนี หากคุณต้องการเครื่องมือค้นหาดัชนีทุกอย่างในเว็บไซต์ของคุณคุณไม่จำเป็นต้องใช้ไฟล์ robots.txt ( ไม่ได้ว่างนะ
)ในขณะที่ Google จะไม่คลานหรือดัชนีเนื้อหาของหน้าเว็บที่ถูกบล็อกโดย robots.txt , เราอาจยังคงดัชนี URL ถ้าเราพบพวกเขาบนหน้าเว็บอื่น ๆบนเว็บ เป็นผลให้ , URL ของหน้าและ , อาจ , ข้อมูลต่อสาธารณะอื่นๆ เช่น จุดยึดข้อความในการเชื่อมโยงไปยังเว็บไซต์หรือชื่อจากดีมอซ ( www.dmoz . org ) , จะปรากฏในผลการค้นหา Google .
ในการใช้ไฟล์ robots.txt , คุณจะต้องมีการเข้าถึงรากของโดเมนของคุณ ( ถ้าคุณไม่แน่ใจให้ตรวจสอบกับเว็บของคุณติด ) หากคุณไม่ได้มีการเข้าถึงรากของโดเมน คุณสามารถ จำกัด การเข้าถึงการใช้หุ่นยนต์เมตาแท็ก
การแปล กรุณารอสักครู่..
![](//thimg.ilovetranslation.com/pic/loading_3.gif?v=b9814dd30c1d7c59_8619)