توسط این فایل شما میتوانید مشخص کنید که گوگل چه قسمتهایی از سایت شما را ایندکس کند و درواقع میتوانید گوگل را کنترل کنید. توسط این فایل قسمتهای محدود و مشخص از سایت شما توسط موتورهای جستجو ایندکس میشود. درواقع توسط این قسمت مشخص میشود که گوگل به چه قسمتهایی دسترسی داشته باشد و سراغ محتوای غیر مرتبط نرود. است که با کمک آن و درج دستورات تحت وب میتوان کارهای مختلفی از جمله ایجاد دسترسی یا محدودسازی ربات موتورهای جستجو را انجام داد.
همینطور ممکن است بخواهیم ویدیوها و تصاویر سایت در ایندکس گوگل دیده نشوند. یکی از بخش های ترسناک و ناشناخته سئو برای سئوکارهای تازه کار و وبمستران، آشنایی و کار با فایل robots.txt است. البته با توجه به اینکه نام آن کمی متفاوت بوده و محتوای نامتعارفی هم دارد، این ترس کاملا توجیه شده است. دستورات فایل ربات شما از ایندکس جلوگیری نمی کند و می بایست مابقی تنظیمات وردپرس را برای این مورد بررسی نمایید. گوگل بعد از این که گفت استفاده از دستورات noindex و disallow کمکی به خارج کردن صفحات از نتایج جستجو نمیکند، راهکارهای دیگری برای این کار معرفی کرد.
- من وقتی سایت رو تو گوگل جستجو می کنم یک سری از آدرس های مربوط به دایرکتوری آپلود میاد بالا که البته از تو سرچ کنسول آن ها را به درخواست حذف اضافه کردم.
- صفحات شما همچنان می توانند به صورت فهرست شده در نتایج جستجو برای کلمات کلیدی انتخاب شده قرار گیرند.
- جلوگیری از دسترسی به یک سری از آدرس های سایت به معنای پاک شدن آنها از ایندکس گوگل نخواهد بود.
- سلام.خواستم تشکرکنم ازسرویس وبرنامه خوبی که دارید.بنده ازربات اینستاگرام استفاده میکنم.میخوام ربات سئو روهم تهیه کنم.
دستورالعمل های متا نمی تواند برای منابع چندرسانه ای مانند PDF ها و تصاویر به خوبی Robots.txt عمل نماید. فرض پیشفرض این است که یک User-agent میتواند هر صفحه یا دایرکتوری را که توسط قانون غیرمجاز مسدود نشده است بخزد. هر گروه با یک خط User-agent شروع میشود که هدف گروه ها را مشخص میکند.
آموزش ساخت فایل robots.txt سایت
بعد از اینکه وب سایت ما به طور کامل طراحی و آماده نمایش به گوگل شد، باز هم ما با فایل robots سایت کار داریم. در سایت، برخی از صفحات وجود دارند که به صورت پیشفرض وجودشان ضروری است اما نمایش آنها در نتایج هیچ سودی ندارد. برای جلوگیری از دسترسی رباتها چند راه مختلف وجود داره که در انتهای مقاله توضیح دادیم. میتونید از سرچ کنسول دوباره درخواست ایندکس بدید، نقشه سایت رو دوباره بررسی و آپلود کنید.
Robots.txt چیست؟
کافی است به انتهای آدرس هر سایتی robots.txt/ اضافه کنید و آن را باز کنید. همان Notepad ساده ویندوز یا هر ویرایشگر متن دیگر که فایل خروجی از نوع TXT میدهد قابل استفاده است. کد بالا به این معنی است که “اجرای دستورات فایل، تنها برای ربات گوگل الزامی است. از این دستور میتوان به دو شکل در فایل robots.txt استفاده کرد.
چرا فایل robots.txt برای سئو مهم است؟
بعد از انتخاب وبسایت به صفحهای هدایت میشوید که آخرین محتوای فایل Robots.txt که گوگل دریافت و بررسی کرده را نمایش میدهد. میتوانید فایل را در همین صفحه ویرایش کنید و بعد با زدن دکمه submit صفحهای باز میشود. بهتر است دستورالعملهای هر موتور جستجو را بخوانید تا مطمئن شوید دستوراتی که مینویسید برای همه موتورهای جستجو کار میکند. چرا؟ ربات خزنده موتور جستجوی گوگل (همان Googlebot خودمان!) دارای ویژگی به نام Crawl Budget است. گوگل تعدادی ربات خزنده دارد که به صورت خودکار وبسایتها را اسکن میکنند و صفحهها را با دنبال کردن لینکها از صفحهای به صفحه دیگر پیدا میکنند.