פרוטוקול אי הכללת רובוטים (robots.txt) מאפשר למנהל אתר לקבוע כיצד מנועי חיפוש ובוטים אחרים יסרקו את האתר.
המנהל האתרי (Webmaster) הוא מי שמנהל ותחזק את האתר. ההגדרה נעשית דרך קובץ בשם robots.txt. הקובץ נמצא בספריית השורש של האתר ומכיל תחביר מיוחד.
הפרוטוקול משמש בעיקר להסתיר חלקים מהאתר ממנועי חיפוש. באמצעותו אפשר להורות למנועים לא לאנדקס דפים מסוימים.
robots.txt הוא קובץ שמנהל האתר כותב כדי לקבוע חוקים לבוטים.
בוטים הם תוכניות שבודקות אתרי אינטרנט. הקובץ נמצא בתיקיית השורש של האתר.
החוקים אומרים למנועי החיפוש אילו דפים לא להראות בתוצאות.
תגובות גולשים