این ابزار نمیتواند به صورت مستقیم فایل robots.txt را ویرایش کند. بعد از زدن دکمه submit پنجرهای باز میشود که از شما میخواهد فایل جدید ویرایش شده را دانلود کرده و به جای فایل قبلی در سرور میزبان وبسایت جایگزین کنید. در بخش بعد توضیح میدهیم که چطور یک فایل Robots.txt بسازیم، آن را در جای درستش قرار دهیم و تست کنیم تا رباتهای گوگل به آن دسترسی داشته باشند.
اگر تا الان روی سئوی سایتت کاری نکردی، بهتره که از همین امروز شروع کنی. در صورتی که سایت شما دارای ساب دامین است لازم است هریک از این ساب دامینها دارای فایل robots.txt مختص خود باشند. بعنوان مثال nardebangroup.com فایل خودش را دارد و my.nardebangroup.com هم فایل robots.txt جدا دارد.
- دستور بالا به این معنی است که دستورات بعدی، برای همه رباتهای جستجوگر یکسان عمل کند.
- تمامی حقوق این سایت محفوظ و متعلق به شرکت طراحی سایت طرح و پردازش مبنا می باشد.
- این فایل به جای دیگری در سایت پیوند داده نشده است، بنابراین کاربران به احتمال زیاد به آن برخورد نمی کنند، اما اکثر رباتهای خزنده وب قبل از خزیدن سایت، به دنبال این فایل میگردند.
- آنها پس از رسیدن به یک وب سایت، قبل از پایش آن نگاهی به فایل robots.txt می اندازند.
- در مورد فایل robots.txt چه می دانید و چه اطلاعاتی دارید؟ آیا از موارد و کاربردهای فایل robotx.txt آگاهی دارید؟ در ادامه قصد معرفی فایل robots.txt، دستورات، عملکرد آن را داریم، پس همراهمان باشید.
- به این صورت که لیستی از کلمات کلیدی مورد نظرتان را به این ربات ارتقاء سئو میسپارید تا جایگاه (صفحه) سایت شما را در نتایج جستجوی گوگل (برای تک تک آن عبارات کلیدی) به شما گزارش دهد.
فایل ربات robots.txt حاوی دستورالعملهایی است که برای موتورهای جستجو مشخص میکند اجازه دسترسی به کدام بخشهای وبسایت را دارند و دسترسی به کدام بخشها برای آنها مجاز نیست. اغلب موتورهای جستجوی شناختهشده نظیر گوگل، بینگ و یاهو از فایل ربات پشتیبانی میکنند و محتویات موجود در آن را بررسی میکنند. مطالعه این راهنما به شما در مورد فایل robots.txt سایت و نحوه ساخت فایل ربات سایت و اهمیت آن در سئو اطلاعات زیادی خواهد داد. با مطالعه این مقاله شما میتوانید فایل robots.txt سایت خود را ایجاد و بررسی کنید و مطابق با ساختار سایتتان اصلاح کنید. اگر در فایل Robots دستور دهید که رباتهای گوگل اجازه دسترسی به صفحاتی را ندارند، این صفحات کلاً بررسی نمیشوند اما هیچ تضمینی وجود ندراد که این صفحه در نتایج جستجوی گوگل ظاهر نشود. امکان دارد رباتها از طریق لینکهایی که به همان صفحه داده شدهاند و کمک گرفتن از همان انکر تکست لینک، صفحه را ایندکس کنند.
بعد از اینکه public_html را باز کردید، فایل را به داخل آن بکشید؛ توجه داشته باشید که به عنوان مالک سایت، باید بتوانید به تمام قسمت های فایل دسترسی داشته باشید و آن را بخوانید، ویرایش کنید و بنویسید. لازم به ذکر است که این دسترسی ها را هیچ شخصی به غیر از مالک سایت نباید داشته باشد. در ادامه ی مقاله نحوه ساخت فایل ربات را با دستورات آن آورده ایم. اگر سایت شما وردپرسی است با نصب افزونههای سئو وردپرس نظیر رنک مث یا یوست سئو بصورت خودکار برای شما این فایل ایجاد خواهد شد. در غیر این صورت به پوشه public_html در هاست خود بروید و یک فایل متنی با نام robots.txt و محتوای آن را مطابق با نیازهای خود اصلاح کنید.
شروع ماجراجویی در وب
تمدید سالانه ارزان است و فقط با پرداخت 20% قیمت (به روز) پکیج انجام خواهد شد. دریافت مبلغ برای تمدید آپدیت های سالانه، تضمینی است بر اینکه ربات افزایش ورودی گوگل دائماً مورد رسیدگی ما قرار میگیرد، آپدیت میشود و هرگز از کار نمیافتد. همونطور که در ابتدای صفحه گفتیمنرم افزار ما با استفاده از ماوس و کیبورد واقعی بجای استفاده از دستورات برنامه نویسی جست وجو و کلیک روی سایت شمارو توی گوگل انجام میدهد. با گسترش استفاده از تلفن همراه، طراحی سایت ریسپانسیو رفته رفته به یک ضرورت در طراحی سایت تبدیل شده است.
Robots.txt و وردپرس
با دستور Disallow و عبارت search موتور جستجو را از ایندکس نتایج جستجوی کاربران محروم کرده ایم. با اجرای دستور Crawl-delay بعد از برطرف کردن مشکل، صفحه شما توسط ربات های موتور جستجوی گوگل کراول و ایندکس خواهد شد. دستور Allow دقیقا برعکس دستور Disallow عمل می کند؛ این دستور به ربات های موتور جستجوی گوگل اجازه ایندکس کردن را می دهد.
ربات ارتقاء سئو و افزایش ورودی گوگل
گوگل بودجه خزیدن را به وضوح تعریف نمی کند، اما آنها می گویند هدف این است که اولویت بندی شود که چه چیزی باید خزیده شود، چه زمانی باید خزیده شود و چقدر دقیق خزیده شود. پیاده سازی آنها راحت تر است و احتمال وقوع فاجعه کمتر است (مانند مسدود شدن کل سایت شما). همانطور که می بینید، ما عنکبوت ها را از خزیدن صفحه مدیریت WP منع می کنیم. و همینطور هر چیزی که بعد از “Disallow” شما آن را برای خزیدن ربات ها مسدود می کنید. اگر تعداد صفحاتی که شما می خواهید با تعداد صفحات فهرست بندی شده برابر بودند. و صفحاتی را که تشخیص دهد که مهم نیستند، یا کپی از صفحات دیگر هستند را فهرست بندی نمی کند.
خیر رباتهای بدافزارها به دنبال اطلاعات کلی از سایتها مانند ایمیلهای بخش Info هستند درنتیجه به صورت کامل Robots.txt را نادیده میگیرند و از دستورات آن پیروی نمیکنند. هدف این رباتهای مخرب پیدا کردن ایمیلهای شرکتی است تا هرزنامه و اسپمها را به صورت انبوه برای این ایمیلها ارسال کنند. با استفاده از این کد شما به رباتها اعلام میکنید که اجازه دسترسی به این فایل و بررسی آن را ندارند. این کد در فایل Robots.txt به این معنی است که رباتها به هیچ محتوایی که در پوشه ذکرشده قرار دارد، دسترسی ندارند. با استفاده از این کد شما به رباتها اعلام میکنید که همه صفحات و محتوای سایت را مجاز به بررسی هستند. با استفاده از این کد شما به همه رباتها اعلام میکنید که فعلاً نیازی نیست هیچ صفحهای از سایت را بررسی کنند.
در حال حاضر بهترین راه برای حذف صفحهای از نتایج جستجو، اضافه کردن دستور noindex در قسمت head صفحهها است. اگر از وردپرس استفاده میکنید افزونههایی برای این کار وجود دارد و در غیر اینصورت باید از طراحی وبسایت خود بخواهید که امکاناتی برای افزودن این کدها یا دستورات در قسمت هد هر صفحه فراهم کند. از روشهای ساده و آسانی که میتوانید برای بهبود و بهینهسازی سایت کمک بگیرید از طریق بهینه سازی فایل Robot.txt صورت میگیرد.