หน้าแรก/บทความ/เรื่องของ robots.txt
กลับหน้าบทความ
🤖Web Server

เรื่องของ robots.txt

robots.txt คืออะไร และวิธีใช้งานเพื่อบอก Search Engine Bot ว่าไฟล์หรือโฟลเดอร์ไหนที่ไม่อนุญาตให้เก็บข้อมูล

ศิริชัย ธีรภัทรสกุล (ตั้ม)อ่าน 3 นาที7 มกราคม 2551
#robots.txt#SEO#Search Engine#Web Server

robots.txt คืออะไร?

เป็นไฟล์ที่ไว้บอก Robot ของ Search Engine ต่างๆ ว่าไฟล์นี้อนุญาตให้เข้าไปเก็บข้อมูลหรือไม่ (ไม่อยากให้เผยแพร่นั่นเอง) เช่น พวกหน้า admin หรือไฟล์ที่สำคัญๆ ต่างๆ โดยจะเป็นความปลอดภัยเบื้องต้นเท่านั้น

วิธีก็คือเราสร้างไฟล์ที่ชื่อว่า robots.txt วางไว้ที่ Root ของแต่ละ Directory ที่ต้องการกำหนดการเข้าถึง

รูปแบบการใช้งาน

# robots.txt for http://www.example.com/

User-agent: *
Disallow: /directoryname/
Disallow: /filename.html
  • User-Agent — ชื่อของ Robot ที่ต้องการ (* หมายถึงทุกตัว)
  • Disallow — หมายถึงไม่อนุญาตให้ bot เข้าไปอ่านข้อมูล

ถ้าอยากดูตัวอย่างรูปแบบอื่นไปที่นี่เลย http://www.robotstxt.org/orig.html

🚀 รับพัฒนาเว็บไซต์ & เว็บแอพพลิเคชั่น

สนใจดูตัวอย่างงานหรือสอบถามเพิ่มเติม ติดต่อได้เลยครับ โค้ดโมทีฟ (CodeMotive)