سئوی robots txt ، مثالی بزرگ برای جستجوگرها دهاستینگ فایل روبات سئو

اگر واقعا مصمم هستید سایت خود را با افزونه Yoast SEO بهینه سازی کنید. پیشنهاد میکنیم از نسخه تجاری و حرفه ای آن استفاده کنید، و البته اگر آن را از مانگو تهیه کنید، هم پشتیبانی دریافت میکنید هم بروز رسانی های آن را به طور اورجینال دریافت می کنید. دایرکت ادمین را باز کرده و روی مدیریت فایل File Manager کلیک کنید. پس از اینکه مسیر مورد نظر برای شما باز شد باید وارد پوشه Public_html شوید. وارد این مسیر شدید، روی گزینه Upload to this Directory کلیک کرده و فایل خود را برای آپلود انتخاب کنید. دستور” / ” بعداز Disallow به ربات گوگل می‌گوید باید وارد پوشه‌ای در ریشه فایل شوید.

  • این دستور به ربات‌ها اجازه می‌دهد به یک صفحه یا بخش وبسایت دسترسی پیدا کنند.
  • مسیر نقشه های سایت را می توانید در انتهای دستورات فایل robots.txt به مانند تصویر زیر قرار دهید.
  • Crawl Stats وجود دارد که دفعات بررسی صفحه‌های سایت به صورت روزانه را نمایش می‌دهد.

یک فایل robots.txt حاوی دستورالعمل‌هایی برای ربات‌ها است که به آنها می‌گوید به کدام صفحات وب می‌توانند دسترسی داشته باشند و به کدام صفحات نباید بروند. فایل‌های robots.txt برای خزنده‌های وب موتورهای جستجو مانند Google مرتبط هستند. فایل Robots.txt یک فایل متنی است که مدیران وبسایت از آن برای هدایت ربات‌های موتور جستجو استفاده می‌کنند و با کمک آن می‌توان نحوه خزیدن و ایندکس صفحات وبسایت را فهرست کرد. لینک های حاضر در صفحات بلاک شده توسط فایل robots.txt دنبال نخواهند شد. این مسئله بدین معناست که در صورت عدم وجود آن لینک در هیچ کجای وی یا یک صفحه بلاک نشده دیگر از وب سایت شما، توسط موتورهای جستجو دیده نشده و در نتیجه ایندکس نخواهد شد. ثانیا اعتباری از صفحه بلاک شده به لینک های آن منتقل نمی گردد.

سرور ابری

در زمینه کلمات کلیدی حتما این نکته رو هم در نظر داشته باشین که هیچ وقت نمیشه تو کلمات کلیدی که رقابت شدیدی توشون وجود داره به سادگی اومد توی صفحات اولیه گوگل. باید با استفاده از کلمات کلیدی جانبی که رقابت توشون کمتره صفحات سایت رو اول بالا بکشید. اما قطعا هیچ وقت بیشتر از یکی دو روز نمیکشه که از جست و جوی خودتون به نتیجه دل خواه میرسید. و تاثیر مثبت بر روی الگوریتم Rank Brian گوگل داشته باشند (که خود نشانه پاس کردن استانداردهای امنیت در ربات افزایش ورودی گوگل است).

از Disallow برای مسیرها استفاده کنید نه صفحات خاص

همچنین با داشتن یک فایل robots.txt به مدیریت فعالیت‌های این خزنده‌های وب کمک می‌کنید تا بر سرور وب میزبان وب‌سایت مالیات اضافه نکنند، یا صفحاتی که برای نمایش عمومی نیستند فهرست‌بندی نکنند. این دستور به ربات‌ها می‌گوید که به صفحه وب یا مجموعه‌ای از صفحات وب که پس از دستور آمده است دسترسی نداشته باشند. صفحات غیرمجاز لزوماً “پنهان” نیستند – آنها فقط برای کاربران عادی Google یا Bing مفید نیستند، بنابراین به آنها نشان داده نمی‌شوند. در بیشتر مواقع، کاربر در وب سایت اگر بداند که در کجا آنها را پیدا کند، می تواند این صفحات را پیمایش کند.

این صفحات برای وب سایت شما ضروری هستند ولی نمی خواهید در گوگل فهرست بندی شوند. فهرست برخی از ربات‌های مشهور که سایت‌های اینترنتی را پیمایش می‌کنند در این صفحه قابل مشاهده است. 4- برای تأیید اینکه فایل robots.txt آنلاین نسخه‌ای است که می‌خواهید گوگل آن را بخزد، روی تأیید نسخه آنلاین کلیک کنید.

هر حالت دیگری که فایل ربات در ریشه سایت نباشد آن را از دسترس ربات‌های گوگل خارج می‌کند. Robots.txt نحوه خزیدن در صفحات مختلف وب‌سایت را به ربات‌ها اعلام می‌کند در حالی که متا ربات و ربات X رفتارهای یک صفحه یا محتویات یک صفحه را به ربات‌های خزنده اعلام می‌کنند. این کد به ربات اجازه می دهد در فایل photos فقط عکس backlink.jpg را نمایش داده و ایندکس نماید، واجازه دسترسی به دیگر عکس های داخل فولدررا ندارد. شما با ترکیب این ۲ دستور user-agent و disallow می توانید قوانین مختلفی برای دسترسی به عکس، متن و …قسمت های مختلف سایتتان ایجاد کنید. هم چنین می توانید نام هر ربات خزنده را در user-agent مشخص کنید و به آن دستور خاصی دهید.