إنضمامك إلي منتديات استراحات زايد يحقق لك معرفة كل ماهو جديد في عالم الانترنت ...

انضم الينا
استراحات زايد الصفحة الرئيسية


إضافة رد
 
LinkBack أدوات الموضوع انواع عرض الموضوع
  #1  
قديم 04-22-2010, 02:10 AM
عضو ماسي
بيانات محروم.كوم
 رقم العضوية : 503
 تاريخ التسجيل : Dec 2007
الجنس : female
علم الدوله :
 المشاركات : 2,100,669
عدد الـنقاط :3341
 تقييم المستوى : 2140

My site was suspended yesterday by my shared hosting provider for using too much resources.

So, I am attempting to stop all robots from indexing the site at least temporarily while I work on this.

Right now I have 4 members and like 53 visitors, many of which are Google Spider, Yahoo! Slurp Spider, Turnitin.com Spider and MSNBot Spider.

Just to test this out, I just put the most repressive robots.txt file for the forums that I could think of, which is:


User-agent: *
Disallow: /forum/

(the forum folder is on the root level of my public_html folder, i.e. www.mysite.com/forum).

The robots.txt file is also on the root of the public_html folder.

Yet, I still have all of these robots crawling around the forums!! How do I get them to stop??! This file seems to have no effect whatsoever! Thanks....
__DEFINE_LIKE_SHARE__
رد مع اقتباس
إضافة رد

مواقع النشر (المفضلة)


تعليمات المشاركة
لا تستطيع إضافة مواضيع جديدة
لا تستطيع الرد على المواضيع
لا تستطيع إرفاق ملفات
لا تستطيع تعديل مشاركاتك

BB code is متاحة
كود [IMG] متاحة
كود HTML معطلة
Trackbacks are متاحة
Pingbacks are متاحة
Refbacks are متاحة



الساعة الآن 12:12 AM


Powered by vBulletin® Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Content Relevant URLs by vBSEO 3.5.2 TranZ By Almuhajir

RSS RSS 2.0 XML MAP HTML