User-agent در اینجا به معنی دسترسی کامل به خزنده ها می باشد. در ادامه disallow به معنای این است که مسیر ذکر شده را دنبال نکند و اجازه ای برای خزیدن نداشته باشد. در نهایت قسمت allow هم قسمتی است که اجازه می دهد خزنده ها آن ها را دنبال کنند. در قسمت سایت مپ هم می توانید آدرس سایت مپ خود را وارد کنید. هر یک از ساب دامین های وب سایت بایستی دارای فایل robots.txt مختص به خود باشند. به عبارت دیگر blog.example.com و example.com بایستی هر یک دارای فایل robots.txt مجزایی در مسیر خود باشند.
- اغلب user agent ها از یک موتور جستجو، از همان دستورالعمل کلی برای یکی از user agent ها استفاده کرده و نیازی به تعریف دستورات متنوع برای هر یک نیست.
- من میخوام برای ارسال پیام انبوه تلگرام و واتساپ هم خریدکنم..
- ربات های گوگل نیز بطور پیشرفض وظیفه دارند تمامی صفحات سایت را بررسی کنند.
- یعنی کراولر صفحهی شما را کراول و شناسایی میکند اما نمیتواند و حق ندارد محتوای شما را در نتایج نشان دهد.
- در این حالت نه تنها سرور سایت با ترافیک سبکتری فعالیت خواهد کرد، بلکه مراحل بررسی و جمعآوری اطلاعات و سپس ایندکس کردن آنها توسط رباتها نیز به مقدار بسیار زیادی سریعتر خواهد شد.
در چند مورد نادر که در یک صفحه همزمان از تگهای نوفالو و ربات دیسآلو استفده میشود ممکن است مشکلاتی به وجود بیاید. چرا که اگر به طور همزمان استفاده شود گوگل در نتایج جستجو چنین پیغامی را نمایش میدهد که «توضیحی برای این صفحه در دسترس نیست» و در کارکرد کلی سایت شما تاثیر میگذارد. باید دقت داشته باشید که صفحات شما همزمان از این دو تگ و ربات استفاده نکنند تا صفحات به درستی به موتورهای جستجو معرفی شوند. با اجرای دستور Crawl-delay بعد از برطرف کردن مشکل، صفحه شما توسط ربات های موتور جستجوی گوگل کراول و ایندکس خواهد شد.
با اینکار در حقیقت اعلام میکنیم که تمام رباتها مد نظر ما هستند و تمام رباتها باید به دستورات ما توجه کنند و دیگر نیازی نیست اسامی تک تک رباتها را بنویسیم. به این ترتیب ربات Googlebot که اصلیترین ربات گوگل است متوجه میشود که باید به دستورات خاصی توجه کند. حالا که تا حدودی متوجه شدیم که کلیت این فایل چیست، بد نیست که نگاهی به نقشهای فایل robots.txt و دلایل اهمیت آن بپردازیم و دقیقا مشخص کنیم که چرا سایتمان باید حاوی فایل robots.txt باشد. با توجه به اینکه ضمانتی برای عملکرد صحیح این فایل در مواجهه با رباتهای مختلف وجود ندارد، روشهای زیر میتوانند به عنوان راه حل جایگزین در مسدود کردن دسترسی رباتها به سیستم مورد استفاده قرار گیرد. یکی از نکات قابل توجه در ایجاد این فایل، ایجاد نام فایل با حروف کوچک است.
رباتهای موتورهای جستوجو فقط دستورات Disallow و Allow را قبول دارند و میدانند. البته میتوانیم با دستور Crawl-delay، گشتن و کراول کردن آنها را برای صفحهای خاص به تاخیر بیاندازیم. سایت مپ، سایت شما نیز در دستورات فایل Robot.txt قرار میگیرد که به رباتهای موتورهای جستوجو میگوید فایل XML نقشه سایت کجاست. پس برای اینکه به آنها بگویید صفحهای را ایندکس نکنند باید از دستور Disallow و برای اینکه بگویید بعدا این صفحه را کراول کنند از دستور Crawl-delay باید استفاده کنید. باید بدانید که موتورهای جستوجو رباتهای متفاوتی دارند به همین دلیل با کد User Agent و نام ربات مورد نظر، میتوانیم ربات خاصی را مشخص کنیم.
دستور های موجود در فایل Robot.txt
یعنیباید ازطریق عوض کردن IP هویت خودتون رو مخفی کنید و به کلمات کلیدی هم تنوع بدین. پس شما و تقریبا همه ی ادم هایی که به عنوان یه انسان معمولی از گوگل استفاده میکنندهیچ وقت یه کلمه کلیدی ثابت رو به مدت یه هفته تا یه ماه پشت سر هم سرچ نمی زنند و روی یک سایت کلیک نمیکنند. افزونه رنک مث هم که به تازگی به یکی از رقبای جدی پلاگین یواست تبدیل شده، برای ویرایش مستقیم فایل robots.txt بخشی را در نظر گرفته است.
حذف کامل یک صفحه از نتایج گوگل به کمک فایل robots.txt
اگر تا الان روی سئوی سایتت کاری نکردی، بهتره که از همین امروز شروع کنی. در این بین فایل های متنی هم با فرمت های مختلفی قابل دسترسی اند. زمانی که شما یک فایل به کمک notepad ویندوز خودتان ایجاد کنید، فرمت آن txt است.
دستور” / ” بعداز Disallow به ربات گوگل میگوید باید وارد پوشهای در ریشه فایل شوید. Robots.txt در حقیقت جزو مهارتهای اولیهای است که متخصصین سئو آن را یاد میگیرند و یکی از صدها بخش سئو سایت میباشد. اما متاسفانه در بسیاری از موارد نتایجی که از آن گرفته میشود یا منفی و مخرب است و یا عملا هیچ تاثیری در سئو ندارد.
و اگه توسط این قابلیت میشه من باید چکار کنم تا از دست این دسته ها و آدرس های قدیمی که ارور هستش راحت شم . این مقاله به کوشش رامین محمودی، حسین بابائی، صفیه منتظری و دیگر اعضای تیم نوین تولید شده است. تکتک ما امیدواریم که با تلاش خود، تاثیری هر چند کوچک در بهبود کیفیت وب فارسی داشته باشیم. هر آنچه برای کنترل این رباتها فضول اما مفید لازم بود را به زبان ساده توضیح دادیم. با مشخص کردن یک یا چند فیلتر مختلف، مقالههای جذاب و مناسب خودتان را پیدا کنید.
اگر برنامه های FTP را نمی شناسید یا راجع به کار اف تی پی اطلاعات دقیقی ندارید، پیشنهاد می کنم مطالعه این مقاله را از دست ندهید. فهرست برخی از رباتهای مشهور که سایتهای اینترنتی را پیمایش میکنند در این صفحه قابل مشاهده است. آژانس دیجیتال مارکتینگ مجله خبری سئو و طراحی سایت eBgroup از دهه 90 بعنوان یکی از آژانسهای موفق در زمینه سئو، طراحی سایت، تولید محتوا و تبلیغات کلیکی در غرب تهران مشغول به فعالیت بوده است. حتی اگر این فایل در سایر مسیر ها وجود داشته باشد، پایشگر متوجه حضور آن نخواهند شد.
یکی از ساده ترین فایل هایی که در سایت ها قرار داده می شود فایل Robots.txt است که اهمیت ویژه ای برای سئو سایت دارد. همچنین پیکربندی نادرست این فایل می تواند به سرعت سئو سایت را خراب کرده و مانع دسترسی موتورهای جستجو و خزنده های آن ها به محتوای سایت شود. حتی ممکن است متخصصان با تجربه و خبره سئو نیز در پیکربندی فایل Robots.txt اشتباه کنند که منجر به هزینه هایی برای سایت خواهد شد. در این مقاله از سایت سئواستاد به طور مفصل در مورد نحوه تنظیم اصولی فایل Robots.txt بر اساس سئو صحبت می کنیم. خزیدن ربات در موتورهای جستجو ارزشمند است، اما خزیدن میتواند سایتهایی را که قدرت رسیدگی به بازدید رباتها و کاربران را ندارند، تحت تأثیر قرار دهد.