Robots txt چیست؟ تاثیر فایل Robots.txt روی سئو وب داران

تمامی حقوق برای وب سایت ” وب جوان ” محفوظ می‌باشد و هرگونه کپی برداری با ذکر منبع بلامانع است. تعیین تأخیر خزیدن به‌منظور جلوگیری از بارگیری بیش از حد سرورهای شما هنگام بارگیری هم‌زمان چند قطعه محتوا توسط خزنده‌ها. نام فایل robots.txt باید با حروف کوچک باشد (بدون Robots.txt یا ROBOTS.TXT). این به ربات ها می گوید که می توانند کل وب سایت را مرور کنند، زیرا هیچ چیزی غیرمجاز نیست. دستور Disallow را می توان به روش‌های مختلفی مورد استفاده قرار داد که چندین مورد از آنها در مثال بالا نمایش داده شده است.

  • در این شرایط است که برای بهینه سازی عملکرد سایت، باید ربات های موتور جستجوی گوگل را محدود کرد؛ برای انجام این کار هم باید از فایل Robots.txt استفاده کرد.
  • البته شما به‌عنوان مدیر سایت می‌توانید از افزونه WordPress SEO by Yoast جهت عدم نمایش دسته‌بندی سایت در ایندکس شدن صفحه‌نمایش صفحه‌هایی که ساخته‌شده‌اند استفاده کنید.
  • ربات بعد از ورود به سایتی که از آن ریپورتاژ یا بک لینک گرفته اید؛ ابتدا، لینک یا انکر تکستی که حاوی لینک صفحه سایت شما است را پیدا میکند و سپس بر روی آن کلیک میکند و وارد سایت شما میشود.
  • پیکربندی صحیح فایل robots.txt یکی از اقدامات اساسی در بهینه سازی بودجه خزش و سئو سایت است.

برای اینکار کافیست وارد “پیشخوان وردپرس” شده، روی “تنظیمات افزونه” کلیک کرده و “ابزارها” را انتخاب کنید. یک Robots.txt درواقع یک فایل متنی ساده است که در مسیر اصلی فضای سایت شما یا روت دایرکتوری قرار می‌گیرد. در حقیقت وظیفه این فایل معرفی بخش‌های قابل دسترسی و بخش‌های محدود شده برای دسترسی ربات‌ها می‌باشد.

باید دقت داشته باشید که صفحات شما همزمان از این دو تگ و ربات استفاده نکنند تا صفحات به درستی به موتورهای جستجو معرفی شوند. User-agent ربات‌های خزنده به ادمین‌های سایت کمک می‌کنند تا انواع ربات‌های خزنده در حال بررسی سایت را بشناسند. در فایل robots.txt شما قادر خواهید بود تا برای ربات‌های مختلف، دستورالعمل‌های مختلفی صادر کنید.

حالا باید این فایل را در سرور میزبان به جای فایل قبلی قرار دهید. حالا این فایل را باز کنید و طبق راهنمایی که گفته شد، دستورات لازم را در آن بنویسید. اجازه دهید برای درک آسان‌تر فایل Robots.txt از یک مثال ساده شروع کنیم. آشنایی با ساب دامین و تفاوت‌های آن با ساب فولدر زیر دامنه یا ساب دامین چیست؟ چه تفاوتی با ساب فولدر دارد؟ چرا باید از زیردامنه استفاده کرد؟ اگر قصد راه اندازی سایت یا فروشگاه اینترنتی خود… ظاهرا noindex بودن ادرس ها و دستکاری شده توی کدنویسی قالب (نال شده) .

لینک های مفید

بنابر نیازماکاربردی وازقیمت مناسبی برخورداربودکه توانستیم تبلیغات خودراگسترده تر،درکوتاهترین زمان وبالاترین راندمان انجام دهیم.. سلام.خواستم تشکرکنم ازسرویس وبرنامه خوبی که دارید.بنده ازربات اینستاگرام استفاده میکنم.میخوام ربات سئو روهم تهیه کنم. نرم افزارکاربردی ومفیدیه،شخصاخیلی ازش راضی به جرات میتونم بگم ازبهترین نرم افزار های ارسال پیام انبوه و تبلیغ درتلگرام هست.. مرسی ازشماوتیم خوبتون بابت پاسخگویی واین که پشتیبانی میکنید کاربرو… سلام ربات واقعاعالی کارمیکنه، خیلی خوشم آمدازاین خرید که کردم. من میخوام برای ارسال پیام انبوه تلگرام و واتساپ هم خریدکنم..

فایل robots.txt در کجا بایستی قرار داشته باشد؟

در نهایت کار روی سرچ و کلمات کلیدی رو با توجه به نکاتی که گفتیم همه روزه برای صفحات مختلف سایتتون تکرار بکنید خودتون بعد از مدت کوتاهی پیشرفت سئو رو از طریق بازخورد بازدیدکنندگاتون رو به صورت ملموس میبینید. در نهایت کار روی سرچ و کلمات کلیدی رو با توجه به نکاتی که گفتیم همه روزه برای صفحات مختلف سایتتون تکرار بکنید. خودتون بعد از مدت کوتاهی پیشرفتتون رو از طریق بازخورد بازدیدکنندگاتون رو به صورت ملموس میبینید. این محصول در حقیقت پکیجی شامل ربات های متعدد، آموزش‌ها و ابزارهای لازم برای ارتقاء سئو سایت شما می‌باشد.

این فایل شما را قادر می‌سازد تا با موتورهای جستجو ارتباط برقرار کنید و به آن ها نشان دهید که چه بخشی از سایت شما را باید ایندکس کنند و چه بخش‌هایی را نباید ایندکس کنند. اگر از تگ نوایندکس استفاده کنید مستقیما به ربات‌های کراولر اعلام می‌کنید که این صفحه نباید در نتایج جستجو نمایش داده شود. یعنی کراولر صفحه‌ی شما را کراول و شناسایی می‌کند اما نمی‌تواند و حق ندارد محتوای شما را در نتایج نشان دهد. این مورد برای صفحات محرمانه‌ با دسترسی عمومی بسیار مناسب است. برای صفحاتی محرمانه‌ای که نباید به صورت عمومی نمایش داده شوند ایجاد پسورد و یا شناسایی IP پیشنهاد می‌شود.

نکته مهم در سفارش طراحی سایت فروشگاهی

دقت داشته باشید که صفحات اصلی را از دید ربات ها پنهان نمی کنید. این اقدام تنها بایست در ابتدای ساخت وب سایت انجام شده و در آینده در هنگام بررسی سئو سایت مورد توجه قرار گیرد. من یک وبسایت با ورد پرس ساختم و بعد از قرار دادن تعدادی مطلب تیک اجازه بررسی محتوا توسط موتور های جستجو را برداشتم. هفته اول تعداد بازدید سایت عالی بود ولی بصورت ناگهانی افت کرد و الان به صفر رسیده. تم رو عوض کردم و در گوگل وبمستر هم سایت رو ثبت کردم اما افزونه یوست هنوز پیغام میده که سایتتون ایندکس نمیشه.در سایت وبمستر تولز هم برای نقشه ی سایت ارور میده! با ابزار انلاین که فایل robots.txt رو چک کردم میگفت وجود نداره اما از طریقی که شما اموزش دادید فایلی رو اورد که اصلا دستوراتش فرق میکنند.

همیشه بهتر است پس از ساخت فایل robots.txt آن را تست نموده از صحت عملکرد آن اطمینان حاصل کنید. ابزارهای بسیار زیادی برای تست فایل robots.txt وجود دارند اما استفاده از ابزار Google Search Console را برای این کار توصیه می‌کنیم. فعال کردن گزینه Enable Custom Robotsافزونه All in One SEO فایل robots.txt موجود در سایت شما را در بخش Robots.txt Preview در پایین صفحه نشان می‌دهد.

فایل Robots.txt یک فایل متنی کاملا ساده است؛ همانطور که از نام این فایل پیداست، فرمت .txt دارد و در دایرکتوری سایتتان قرار خواهد داشت. شما با کمک این فایل می توانید به ربات های گوگل و کراولر ها دستورات دلخواه خود را بدهید. شما با اضافه کردن کلمه robots.txt به انتهای ادرس سایت خود می‌توانید فایل robots.txt کنونی را ملاحظه بفرمایید. به عنوان مثال اگر دامنه شما Example.com است به ادرس example.com/robots.txt بروید و فایل robots.txt را مشاهده کنید. فایل Robots.txt یک فایل متنی ساده (با پسوند txt) است که توسط موتورهای جستجو و برخی سیستم‌های دیگر خوانده می‌شود و نام دیگر آن «Robots Exclusion Protocol» به معنی پروتکل حذف ربات‌ها است. این فایل حاصل یک اجماع بین توسعه دهندگان موتورهای جستجو در روزهای ابتدایی بوجود آمدن اینترنت است ولی همچنان اغلب موتورهای جستجو بدان پایبند هستند.

فایل‌ robots txt چیست؟ 5 تاکتیک سئو برای فایل‌ robots.txt

اگر از ورود آی‌پی‌های مختلف به منابع Dissallow اطلاع داشته باشید می‌توانید از یک لیست سیاه برای این کار استفاده کنید و قسمت‌های مختلف سایت را با استفاده از این تکنیک ایمن کنید. یکی از ابزارهای مختلف که به شما در بررسی صحت فایل robots.txt کمک می‌کند استفاده از ابزار تست robots.txt گوگل است. در مثال بالا همه ربات‌های خزنده از دسترسی به تمامی آدرسهایی که دارای کاراکتر ؟ هستند منع شده‌اند. هر شخص و یا هر برنامه کامپیوتری فعال روی شبکه جهانی اینترنت دارای یک user-agent (یک نام اختصاص داده شده) است. برای کاربران واقعی user-agent شامل نوع مرورگر، و سیستم عامل است و حاوی اطلاعات شخصی نیست. این اطلاعات به وبسایت‌ها کمک می‌کند اطلاعات سازگار با سیستم کاربر را نمایش دهند.

  • اگر مطمئن نیستید که Robots.txt را دارید یا نه می‌توانید به سادگی در انتهای آدرس سایت خود یک Robots.txt را تایپ کنید تا مشخص شود که سایت شما دارای این فایل است یا خیر.
  • به تصویر فوق دقت کنید، واقعاً حتی برای خود بنده هم جالب است.
  • خود را بررسی و تست کنید تا مطمئن شوید بخش مهمی از سایت شما از طریق آن مسدود نشده باشد.
  • نردبان قصد دارد به شکلی حرفه‌ای، جایگاه مشتری را در فضای وب دگرگون کند.
  • هر آنچه برای کنترل این ربات‌ها فضول اما مفید لازم بود را به زبان ساده توضیح دادیم.
  • به ویژه در سیستم عامل لینوکس اگر برخی از حروف فایل بزرگ باشند، موتور جستجو امکان دریافت فایل را نخواهد داشت.

در پایان اگر سوالی در خصوص فایل robots.txt و مسائل مرتبط با آن دارید حتما مطرح کنید و به غنی‌تر شدن محتوای این مقاله کمک کنید. در این قسمت شما می‌توانید به صورت زنده تغییرات مورد نظرتان را در محتویات فایل robots.txt انجام دهید و سپس از طریق بخش پایینی بررسی کنید که آیا تغییرات انجام شده دقیقا همان چیزی هستند که به دنبال آن هستید یا خیر. اگر وبسایت خود را به ابزار گوگل سرچ کنسول متصل کرده باشید، وقتی که ابزار تست را باز کنید از شما درخواست می‌کند که Property مورد نظرتان را انتخاب کنید. در صورتی که از قبل به کمک این پلاگین یک فایل robots.txt هم برای سایت‌تان ایجاد نکرده باشید به صورت زیر به شما پیشنهاد ایجاد یک فایل جدید می‌دهد که باید بر روی آن کلیک کنید.

مقایسه robots.txt، متا robots و x-robots

چرا که گوگل علاقه مند به مشاهده وب سایت به شکلیست که برای کاربران به نمایش در می آید. گوگل این گونه می تواند وب سایت را از دید موبایل فرندلی بودن بررسی نماید. آیا از وجود فایل robots.txt در وب سایت خود مطمئن نیستید؟ تنها کافیست که عبارت robots.txt را به انتهای نام دامنه خود اضافه کرد و یو آر ال نهایی را در مرورگر خود وارد کنید. اگر هیچ صفحه متنی ظاهر نشد، پس چنین فایلی در سایت شما وجود ندارد.

دلایل استفاده از Robots.txt

همچنین گوگل دارای ربات Googlebot-Image برای جست جوی تصاویر نیز است. اکثر موتورهای جستجو از قوانین یکسان استفاده می‌کنند، بنابراین نیازی نیست برای هر موتور جستجو یک دستورالعمل مجزا نوشته شود. برای اینکه بتوانید سئوی سایت خود را بهبود ببخشید باید از فایل Robots.txt استفاده کنید. در گام نخست باید بررسی کنید که هیچ محتوایی در این فایل برای بررسی و خزیدن ربات‌ها مسدود نشده باشد. به این نکته توجه داشته باشید که اگر آدرسی در این فایل برای ربات‌ها مسدود شود هیچ وقت سئو و ایندکس نمی‌شود.

اطلاعاتی که از نحوه رفتار شما در وب سایت‌ها به دست می‌آورند…. به کمک این سه قاعده به راحتی می توان برای تعریف فایل Robots.txt اقدام کرد. توجه داشته باشید که فرمت فایلی که آماده می کنید حتما باید UTF-8 باشد. در صورت تمایل به کسب اطلاعات بیشتر پیشنهاد می کنیم در زمینه ثبت مکان در گوگل مپ نیز همراه ما باشید. شناخته می‌شوند را مدیریت کرده و آدرس آن‌ها را مخفی کنید تا کاربران به نوعی مجبور به کلیک روی آن‌ها شوند. بدیهی‌ست که رفت و آمد این حجم از ربات‌ها می‌تواند تا حد قابل توجهی بازدهی کلی سایت را با شرایط نامناسبی همراه کند.

robots.txt چگونه با مدیریت ربات ارتباط دارد؟

فرقی نمی‌کند میزبان وبسایت شما یک سرور اختصاصی، اشتراکی یا مجازی است، فقط کافی است این فایل را در پوشه یا همان دایرکتوری اصلی سایت بارگذاری کنید. فایل robots.txt خود را پیدا کرده و آن را برای ویرایش باز کنید. دستور جدیدی که می‌خواهید را وارد کنید و بعد آن را ذخیره کنید. اگر ترغیب شدید که نگاهی به فایل robots.txt سایت خودتان یا هر سایتی بیاندازید، پیدا کردنش سخت نیست. مطمئناً شما هم می‌خواهید ربات گوگل Crawl Budget سایت‌تان را به بهترین شکل ممکن مصرف کند. به عبارت دیگر، ربات گوگل باید ارزشمندترین و مهم‌ترین صفحات شما را بهتر و بیشتر بررسی کند.

فایل robots txt چیست و چه کاربردی در سئو و ایندکس شدن سایت دارد؟ وب جوان

اگر شما اعتقاد دارید در بودجه خزش سایت شما اشکالاتی وجود دارد پس بلاک کردن موتورهای جستجو از بررسی قسمت‌های کم اهمیت سایت، از هدر رفت بودجه خزش جلوگیری می‌کند. با بهینه سازی فایل ربات موتورهای جستجو از جمله گوگل می‌توانند از بررسی صفحات کم اهمیت صرف نظر کرده و به بررسی صفحات مهمتر سایت بپردازند. فایل robots.txt به گوگل، بینگ و دیگر روبات ها می گوید که به کدام صفحات در یک وب سایت دسترسی ندارند. در صورتی که شما از این فایل در برخی از صفحات در طراحی سایت خود استفاده کنید، موتور های جستجو آن صفحات را به اصطلاح crawl (خزیدن) نمی کنند و امکان دارد URL آن صفحات را در ایندکس خود ثبت نکنند. از بارزترین مثال‌ها در این زمینه، سایت‌های اشتراک فایل غیرقانونی از جمله سایت‌های تورنت هستند. خیلی از این سایت‌ها اجازه دسترسی به محتوای داخلیشان را به ربات‌های موتورهای جستجو نمی‌دهند و به جای آن جستجوگر داخلی خودشان را به کاربران پیشنهاد می‌کنند.

  • سوالی که شاید برای شما هم پیش بیاید این است که این فایل در کجا قرار دارد.
  • فولدرهای حاوی فایل های CSS و جاوا اسکریپت مورد نیاز در وب سایت را بلاک نکنید.
  • در این حالت نه تنها سرور سایت با ترافیک سبک‌تری فعالیت خواهد کرد، بلکه مراحل بررسی و جمع‌آوری اطلاعات و سپس ایندکس کردن آن‌ها توسط ربات‌ها نیز به مقدار بسیار زیادی سریع‌تر خواهد شد.
  • هنگامی که فایل robots.txt خود را در رایانه خود ذخیره کردید، آماده است تا آن را در اختیار خزنده های موتورهای جستجو قرار دهید.

اگر مطمئن نیستید که Robots.txt را دارید یا نه می‌توانید به سادگی در انتهای آدرس سایت خود یک Robots.txt را تایپ کنید تا مشخص شود که سایت شما دارای این فایل است یا خیر. فقط کافی است در انتهای آدرس یک سایت کلمه Robots.txt را قرار دهید تا این فایل را برای شما نشان دهد. برخی از بدافزارها مانند ربات‌های مخرب txt را نادیده می‌گیرند. این بدافزار به شدت به دنبال ایمیل‌های سایت شما هستند تا ارسال تعدادی زیادی هرزنامه و اسپم را آغاز کنند. این نوشته به تمام ربات ها می گوید که در فولدر مربوط به تصاویر وب سایت خزش نکنند. به این دلیل که گوگل خودش به راحتی می تواند کلیه صفحات مهم سایت را پیدا کرده بخزد و فهرست بندی نماید.

مثال هایی از فایل robots.txt

در نهایت، ما با بررسی Crawl Rate و Crawl Demand، مقدار Crawl Budget یک وب‌سایت را تعریف می‌کنیم. در واقع Crawl Budget، تعداد URLهایی است که ربات گوگل می‌خواهد و می‌تواند ایندکس کند. در ادامه می‌خواهیم با جزئیات کامل درباره همین فایل مهم صحبت کنیم. قدم به قدم جلو می‌رویم تا ببینیم چطور می‌توان از فایل Robots.txt استفاده کرد؛ چطور می‌توانیم ربات‌ها را محدود کنیم، چطور از ایندکس شدن صفحه‌ها جلوگیری کنیم و در نهایت یک فایل Robots.txt عالی بسازیم. اما باید حواستان باشد که این ربات‌ها زبان آدمیزاد سرشان نمی‌شود! یعنی همینطور مثل چی سرشان را می‌ندازند پایین و سر تا پای سایت را بررسی می‌کنند.

ربات استخراج ایمیل و موبایل کاربران

در کادر مشخص شده، متن فایل ربات خود را به صورت دستی وارد کرده و روی بررسی TEST کلیک کنید. پس از ساخته شدن فایل ربات با افزونه Yoast میتوانید دستورات خود را در افزونه قرار دهید و آن را ذخیره کنید. برای ساختن فایل ربات در وردپرس ما یک راه ساده را به شما پیشنهاد میکنیم.

اگر سایت شما فایل robots.txt را نداشته باشد چه اتفاقی می‌افتد؟

بنابراین قبل از استفاده از این مورد به این مسئله دقت کافی را داشته باشید. استفاده از فایل robots.txt برای تمام سایت‌های متوسط و بزرگ تقریبا اجتناب ناپذیر است. اما در برخی سایت‌های کوچک با تعداد صفحه‌های محدود، می‌توان در مواردی حتی قید این فایل را هم زد و به موتورهای جستجو اجازه داد تا تمام صفحات را بررسی کنند.

دسترسی ربات‌های موتورهای جستجو را به بخش‌های مختلف و مشخص شده‌ای که اهمیت چندانی برای سئو و کسب رتبه در موتورهای جستجو ندارند را محدود می‌کنند. در این حالت نه تنها سرور سایت با ترافیک سبک‌تری فعالیت خواهد کرد، بلکه مراحل بررسی و جمع‌آوری اطلاعات و سپس ایندکس کردن آن‌ها توسط ربات‌ها نیز به مقدار بسیار زیادی سریع‌تر خواهد شد. به عبارت دیگر، ربات‌ها فقط زمانی تغییر رفتار می‌دهند که دستور دقیق و منطبق با آن رفتار را از طریق متون داخل این فایل دریافت کرده باشند. در غیر این صورت آن‌ها به رفتار طبیعی خود یعنی بررسی و ایندکس کردن تمام بخش‌های سایت ادامه خواهند داد.

در مورد کلمات کلیدی کم رقابت، استفاده از ربات افزایش ورودی گوگل قطعاً سبب بالا آمدن سایت شما (ورود به صفحه اول و حتی آمدن به رتبه نخست) میشود اما در کلمات کلیدی پُر رقابت، قضیه آنقدرها آسان نیست. زیرا کسب رتبه در کلمات کلیدی پُر رقابت تنها به ورودی گرفتن از گوگل وابسته نیست و به عواملی نظیر اعتبار دامنه، اعتبار صفحه، بک لینک‌ها و عوامل متعدد دیگر بستگی دارد. با این حال اگر سایت شما در یک کلمه کلیدی پر رقابت در صفحه سوم یا چهارم گوگل باشد استفاده از ربات شاید بتواند آنرا به صفحه دوم یا اول بیاورد اما نمیتواند آنرا به رتبه های نخست صفحۀ اول برساند.

هنگامی که فایل robots.txt خود را در رایانه خود ذخیره کردید، آماده است تا آن را در اختیار خزنده های موتورهای جستجو قرار دهید. هیچ ابزاری وجود ندارد که بتواند در این مورد به شما کمک کند، زیرا نحوه آپلود فایل در سایت شما به معماری سایت و سرور شما بستگی دارد. در مبحث شبکه، پروتکل قالبی برای ارائه دستورالعمل‌ها یا دستورات است. این پروتکلی است که به ربات‌ها می‌گوید از بررسی کدام صفحات وب و منابع آن اجتناب کنند. دستورالعمل‌های فرمت شده برای این پروتکل در فایل robots.txt گنجانده می‌شود.

ساخت فایل ربات Robots txt Generator ابزار سئو پونه مدیا

برای خیلی از شما این سوال به وجود می آید که چرا باید برای بیزینس و کسب‌وکار خود، محتوا تولید… در غیر اینصورت احتمالا متا تگ نوایندکس گزینه بهتری برای شما باشد. استفاده از تگ noindex برای پیاده سازی روی منابع چندرسانه ای مانند فیلم ها و فایل های PDF دشوار خواهد بود. این قانون به Googlebot می‌گوید که پوشه تصویر وب‌سایت شما را ایندکس نکند. به عنوان یک فایل متنی، در واقع می توانید با استفاده از دفترچه یادداشت ویندوز یک فایل ایجاد کنید.

  • در سرچ کنسول موتور جسجوی گوگل، مدیر سایت میتواند فایل ربات سایت خود را برای گوگل ارسال کند تا گوگل از آن استفاده کند.
  • با دستور Disallow و عبارت search موتور جستجو را از ایندکس نتایج جستجوی کاربران محروم کرده ایم.
  • مثلا قالب flatsome وردپرس که یک قالب معروف است، در زمان طراحی در حدود 30 محصول، 30 برگه و چند مقاله غیر مرتبط و به زبان انگلیسی را به سایت شما اضافه میکند.
  • بعد از کلی گشتن تو نت دنبال پیدا کردن مشکلم، شما واقعا یه محتوای کاربردی نوشتید، بقیه یه چیز تکراری رو کپی زدن از هم.
  • این دستور برای مشخص کردن ربات‌ها و خرندگانی است که امکان دسترسی به بخش‌های سایت را داشته باشند یا خیر.

وقتی فایلی نداشته باشید ربات هم آزاد است به تمام بخش های سایت سر بزند. علاوه بر دستورات “User-agent” و “Disallow”، ربات گوگل دستور دیگری به نام “Allow” را نیز درک می‌کند. دستور بالا به این معنی است که دستورات بعدی، برای همه ربات‌های جستجوگر یکسان عمل کند.

کلیه حقوق این سایت برای شرکت “بهسازان مجازی فناوری اطلاعات آمارد” محفوظ می‌باشد. این یکی ازبهترین برنامه هاوپرکاربرترین برنامه هایی هست که تاالان باهاش کار کردم وپشتیبانی بسیارقوی منوحمایت کردندوازتمام… واقعادمتون گرم.ربات روامروزباخط خودم تنظیماتشوانجام دادم وبرای چند تاخط آزمایشی ارسال انجام دادم.خیلی خیلی عالیه. خیلی ممنونم ازپیگیری هایی که انجام دادید،مشخصه تیم حرفه ای وکارکشته ای پشت روداریدوخیلی پیگیر هستید،واقعاازخریدم راضیم.. سلام بزرگوار بنده وظیفه خود میدانم به خاطر عملکردعالی ربات شما تشکر و قدردانی کنم…

لینکدین

این کار باعث حذف ضایعات بودجه خزیدن شما می شود و هم شما و هم گوگل را از نگرانی در مورد صفحات نامربوط نجات می دهد. اگر فایل robots.txt یک وب سایت ظاهر نشود، ممکن است خالی یا از دایرکتوری ریشه خالی باشد (که در عوض یک خطای 404 را برمی گرداند). گهگاه بررسی کنید تا مطمئن شوید که robots.txt در وب سایت شما یافت می شود.

yoast در رابطه با سئوی robots.txt چه می گوید؟

برای مثال، در وبسایت‌های خبری که همیشه در حال انتشار خبر و به‌روزرسانی اخبارشان هستند ربات‌ها با سرعت بیشتری صفحات را بررسی و ایندکس می‌کنند. اگر این فایل در هاست سایت شما آپلود نشده باشد، خزندگان و ربات‌های موتورهای جستجو امکان دسترسی به تمام صفحات عمومی را خواهند داشت و قادر هستند تا تمام محتوای سایت شما را ایندکس کنند. یکی دیگر از کارهای سئو فنی مربوط به فایل روبوتس است.فایل Robots.txt یکی از فایل‌های مهم در سایت‌ها است. با استفاده از آن می‌توان به موتورهای جست‌وجو اعلام کرد که چه محتوا و صفحاتی را برای ایندکس شدن بررسی نکنند.

چنانچه فایلی با این عنوان مشاهده نکردید مطابق تصویر زیر می-توانید با کلیک راست بر روی گزینه Create new file کلیک کرده و نام robots.txt را برای آن انتخاب کنید. جلوگیری از دسترسی به یک سری از آدرس های سایت به معنای پاک شدن آنها از ایندکس گوگل نخواهد بود. به عبارتی دیگر اگر دسترسی به صفحه ایندکس شده ای را توسط فایل robots.txt بلاک کنید، همچنان آن صفحه در نتایج جستجو قابل رویت است.

در حال حاضر سئو و بهینه‌سازی سایت از جمله موارد مهمی است که به وبسایت شما کمک می‌کند تا در نتایج جستجوی گوگل جایگاه بهتری داشته باشد. این امر زمانی اتفاق می‌افتد که بتوانید رضایت بازدیدکنندگان را جلب و نیاز آن‌ها را برآورده کنید که این کار باعث افزایش ترافیک سایت، افزایش نرخ تبدیل، افزایش فروش محصولات و خدمات می‌شود. تا انتهای این مقاله با ما همراه باشید تا نحوه بهینه سازی فایل Robot.txt را به شما آموزش دهیم.

تیم وب داران با تکیه بر سه اصل آموزش , اجرا و مدیریت به صورت تخصصی در حوزه های طراحی سایت، سئو از سال 1394 فعالیت خود را با نام رایانه پویان آغاز کرد. این بسیار مهم است که فایل robots.txt شما به درستی تنظیم شده باشد. و مهم نیست که در نهایت فایل robots.txt را چگونه و با چه روشی می سازید. بسیاری از موتورهای جستجو به دستور العمل های این فایل توجه می کنند. یکی از نکات قابل توجه در ایجاد این فایل، ایجاد نام فایل با حروف کوچک است.

چنین چیزی باعث میشود گوگل نتواند جریمه‌ای برای اعمال رباتیک در نظر بگیرد. RPA مخفف Robotic Process Automation به معنی خودکارسازی فرایندهای رباتیک است. به بیان ساده‌تر،RPA جایگزینی ربات‌های نرم‌افزاری بجای انسان است. گوگل آنالیتیکس و گوگل کنسولکه قوی ترین الگوریتم های ضد ربات را دارندبازدیدهای ربات ارتقاء سئو ما را به عنوان بازدیدهای یک انسان واقعی ثبت میکنند! برای مشاهده عملکرد ربات ارتقاء سئو، نسخه آزمایشی را تست کنید. دریافت آپدیت های ربات افزایش ورودی گوگل ما در سال اول رایگان بوده و در سالهای بعدی، تمدید سالانه، فقط با پرداخت 20% قیمت (به روز) پکیج انجام خواهد شد.

سئوی robots txt ، مثالی بزرگ برای جستجوگرها دهاستینگ فایل روبات سئو

REP همچنین شامل دستورالعمل‌هایی مانند ربات‌های متا و همچنین دستورالعمل‌های صفحه، زیر دایرکتوری یا سراسر سایت برای نحوه برخورد موتورهای جستجو با لینک‌ها (مانند «دنبال‌کردن» یا دنبال نکردن «nofollow») است. گاهی اوقات به جای فهرست کردن همه فایل‌ها به صورت جداگانه، مسدود کردن چندین صفحه به طور همزمان کارآمدتر است. اگر همه آنها در یک بخش از وب سایت باشند، یک فایل robots.txt می‌تواند دایرکتوری حاوی آنها را مسدود کند. برای جستجوی کلمات کلیدی، بهینه سازی و استراتژی محتوا، رپورتاژ تنها چند مورد از خدمات سئو ebgroup است. یک ربات خزنده وب از خاص‌ترین مجموعه دستورالعمل ها در فایل robots.txt پیروی می‌کند. اگر دستورات متناقضی در فایل وجود داشته باشد، ربات از دستور granular بالاتر پیروی می‌کند.

همانطور که می‌دانیم ربات خزنده و ایندکس کنندۀ گوگل، Googlebot نام دارد. این ربات نسبت به سایر ربات‌های جستجوگر، دستورات بیشتری را متوجه می‌شود. علاوه بر دستورات “User-agent” و “Disallow”، ربات گوگل دستور دیگری به نام “Allow” را نیز درک می‌کند. با استفاده درست از فایل robots.txt می توانید به ربات‌های جستجو بگویید که Crawl Budget سایت‌تان را به درستی مصرف کنند. همین قابلیت است که اهمیت فایل robots.txt را در سئو دوچندان می‌کند. هر کدام از این ربات‌ها به صورت مداوم، صفحه‌های وبسایت را بررسی می‌کنند.

  • به کمک این فایل ما می‌توانیم محدودیت‌هایی را در خزش ربات‌ها تعیین کنیم و انتظار داشته باشیم که آن‌ها هم به این محدودیت‌ها پایبند باشند.
  • مثلا در مثال بالا ربات‌های خزنده از دسترسی به تمام آدرس‌هایی که به autos.
  • پس از فعال سازی، افزونه وردپرس نام برده سایت را بررسی کرده و خودکار مواردی که لازم است از دسترس موتورهای جستجو خارج شوند را Disallow می کند.
  • به کمک این فایل دسترسی ربات های مختلف را می توان مسدود کرد، برای مثال امکان مدیریت دسترسی ربات های Moz و Ahref نیز به کمک این فایل امکان پذیر است.

این فایل حاوی لیست صفحات و محتواهایی است که موتورهای جستجو نیازی نیست آن‌ها را بررسی کرده و دسته بندی کنند. به عنوان مثال گوگل از Googlebot برای جستجوی ارگانیک استفاده می نماید. همچنین از Googlebot-Image برای جستجوی تصاویر وب سایت ها بهره می برد.

گذاشتن کامنت در فایل robots.txt

همانطور که همه‌ی ما می‌دانیم، ربات‌های موتورهای جستجو پررنگ‌ترین نقش ممکن برای معرفی کامل یک سایت به موتورهای جستجو را ایفا می‌کنند. گوگل به عنوان بزرگترین مرجع و گسترده‌ترین شبکه در این زمینه، ربات‌های اختصاصی و عمومی زیادی گسترش داده است. وب‌مسترهای موفق همواره عملکرد و تغییرات این ربات‌ها را دنبال کرده و مطابق با استانداردهای آنان پیشروی می‌کنند. درصورتی که از افزونه یواست برای سئو سایت وردپرسی خود استفاده می‌کنید، این افزونه برای مدیریت و ویرایش فایل ربات سایت‌تان یک بخش ویژه را در نظر گرفته است.

برای گذاشتن کامنت و یادداشت در داخل فایل ربات می‌توانیم از علامت # استفاده کنیم، به این ترتیب جلوی هشتگ هرچیزی که بنویسیم توسط ربات‌ها و خزنده‌ها نادیده گرفته می‌شود. در مرحله دوم، بعد از اینکه مشخص کردیم دقیقا با چه رباتی طرف هستیم، حالا باید مشخص کنیم که محدودیت‌های این ربات چیست و چه صفحات و منابعی از وبسایت شما را نباید بررسی کند. با توجه به محدود بودن این بودجه برای هر سایت، طبیعتا نباید اجازه دهیم بودجه خزش سایت ما صرف خزش محتواهایی از سایت‌مان شود که هیچ کمکی به افزایش ترافیک سایت ما نمی‌کنند. اما این چیزی نیست که ما دنبال آن باشیم، بنابراین باید بتوانیم به کمک فایل robots قوانینی را مشخص کنیم که باب میل ما هستند.

پیشنهاد می کنم ببینی این ارور 404 از وردپرس میاد یا از سمت وب سرور. البته من اطلاعی از روند انتقال سایت تون ندارم، در هر صورت واضحه که ریدایرکت 301 به خوبی اعمال نشده. اگر آدرس صفحات قدیمی رو دارید یک بار همه رو به آدرس جدید ریدایرکت کنید. اگر فاصله مراجعه ربات‌ها خیلی زیاد هست یعنی سایت یا سرور مشکلی داره که باید حل بشه.

اجازه دسترسی کامل

اما ربات موتور جستجو با مشاهده یک صفحه جدید در یک سایت یا یک سایت کاملا جدید که پیش از این مشاهده نکرده است، فایل Robots.txt را بررسی می‌کند تا از وضعیت مجوز برای بررسی و فهرست کردن صفحه یا سایت جدید را اطلاع یابد. دقت کنید که وردپرس در نسخه های جدید به صورت خودکار فایل robots را ایجاد کرده اما شما نمیتوانید آن را پیدا کنید. در صورتی که نیاز به دستکاری این فایل دارید، باید یک فایل جدید ساخته و آن را در هاست آپلود کنید. گاها ممکن است ما قصد داشته باشیم که محتوایی خاص را از دید ایندکس گوگل پنهان کنیم. مثلا امکان دارد یک صفحه برای کمپین فروش بهاری در سایت ساخته باشیم و پس از اتمام بهار، بخواهیم آن را از ایندکس خارج کنیم.

اگر می‌خواهید نقشه سایت خود را به موتورهای جستجو نشان دهید، پس باید از این فایل استفاده کنید. ما به شدت توصیه می‌کنیم اگر فایل robots.txt را در سایت خود ندارید، بلافاصله آن را ایجاد کنید. فایل robots.txt سایت شما نقش مهمی در عملکرد کلی سئو شما دارد.

من چندساله باانواع رباتهاکلنجارمیرم وهیچکدام مثل شمابرام راندمان نداشته وازمحسنات تیمتون پشتیبانی،پیگیری وبهادادن به مشتریست.. به همکارتون هم گفتم،واقعاربات عالی دارین.چون من باهمه رباتهاکارکردم، کارشماعالیه،بعید میدونم حالا حالاها بتونه اینستاگرام جلوشوبگیره. سلام وقتتون بخیر بنده کلیه ی نرم افزار های سایت شما رو تهیه کردن و رضایت کامل دارم بینهایت سپاسگزارم..

مثلاً می‌توانید بررسی کنید آیا ربات مخصوص تصاویر گوگل به یک صفحه خاص دسترسی دارد یا نه. امکان به همان صفحه اجازه دسترسی ربات وب را داده باشید اما ربات تصاویر مجاز به دریافت تصاویر و نمایش آن در نتایج جستجو نباشد. ربات گوگل ، به شکلی طراحی شده است تا شهروند خوبی برای دنیای اینترنت باشد. خزیدن، اولویت اصلی این ربات است پس طوری طراحی شده که تا بر تجربه کاربری بازدیدکنندگان سایت تاثیری نگذارد. این بهینه‌سازی Crawl Rate Limit نام دارد که برای ارائه تجربه کاربری بهتر، تعداد صفحات قابل Crawl در یک روز را محدود می‌کند. همانطور که گفتیم مهم‌ترین ربات‌ها در اینترنت ربات‌های موتور جستجوی گوگل هستند پس ما در ادامه مقاله هرجا می‌گوییم ربات منظورمان ربات‌های گوگل است.

robots txt چیست و چه کاربردی دارد؟

در سرچ کنسول موتور جسجوی گوگل، مدیر سایت میتواند فایل ربات سایت خود را برای گوگل ارسال کند تا گوگل از آن استفاده کند. فایل Robots.txt در حقیقت به ربات‌ها اطلاع می‌دهد که کجا می‌توانند فایل یا فایل‌های نقشه سایت XML را پیدا کنند و در این میان کدام صفحات نباید کراول شوند. قبل از اینکه ربات‌های موتورهای جستجو نظیر گوگل صفحات وب را کراول کنند ابتدا فایل Robots.txt را بررسی می‌کنند و اگر این فایل موجود باشد مطابق با اطلاعات مندرج در آن اقدام به ایندکس کردن صفحات می‌کنند.

  • و باقیش، وهر چقدر که در ادامه از این ربات استفاده بکنید برای شما سود خالص هست.
  • دستور Allow دقیقا برعکس دستور Disallow عمل می کند؛ این دستور به ربات های موتور جستجوی گوگل اجازه ایندکس کردن را می دهد.
  • خیر .در اینصورت نیازی به معرفی نقشه سایت به گوگل با این فایل نیست ولی در هر صورت باید این فایل موجود باشد.
  • معمولا هاست های سی پنل گرانتر هستند ولی ارزش این را دارند چون یک پنل هاستینگ حرفه ای به شما ارائه می کنند.
  • اینکه از افزونه سازنده فایل ربات استفاده کنید تا آن را برای شما نصب و راه اندازی کند.

این فایل را فقط یکبار باید آماده کنید و دیگر کاری با آن نخواهید داشت مگر این که تغییرات مهمی در ساختار سایت ایجاد کنید. اگر کمی با کدهای HTML آشنایی داشته باشید پس می‌دانید که هر صفحه دو قسمت هد و بدنه دارد. برای افزودن این کدها یا باید مستقیم کدهای HTML صفحه را ویرایش کنید یا این که از را‌های دیگری مثل افزونه‌ها برای نوایندکس کردن استفاده کنید. برای تست این که یک صفحه یا هر نوع فایلی توسط فایل Robots.txt بلاک شده، و همچنین اطمینان از این که خود فایل Robots در دسترس است،‌می‌توانید از ابزار تست کننده در سرچ کنسول گوگل استفاده کنید. تمام کاری که باید انجام دهید این است که یک آدرس معمولی در مرورگر خود وارد کنید (برای مثال novin.com یا هر سایت دیگری). دستور / بعداز Disallow به ربات گوگل می‌گوید باید وارد پوشه‌ای در ریشه فایل شوی.

برخی از مهم‌ترین دلایل استفاده از robots.txt

پس فایل ربات صرفا برای جلوگیری از کراول نیست و موتورهای جستجو در هر صورت صفحات شما را ایندکس و کراول می‌کنند اما با فایل ربات به آن‌ها اطلاع می‌دهید که این صفحات را در نتایج جستجو نمایش ندهد. این دستور به ربات‌ها اجازه می‌دهد به یک صفحه یا بخش وبسایت دسترسی پیدا کنند. از کاربردهای این دستور زمانی است که شما بخش بزرگی از سایت را بلاک کرده‌اید و قصد دارید اجازه دسترسی به یک یا چند صفحه از همان بخش به ربات‌های خزنده بدهید. هرچه تعداد صفحات وبسایت شما بیشتر باشد، ربات‌های موتور جستجو زمان بیشتری برای خزیدن و ایندکس کردن صفحات نیاز دارد.

تغییرات اعمال شده توسط شما در فایل Robots.txt امکان آسیب جدی به سئو سایت شما دارد. پس لازم است اطلاعات موجود در این مقاله را دقیقا مطالعه کنید و با آگاهی کامل نسبت به اعمال تغییرات در این فایل اقدام کنید. حالا یک فایل با نام robots.txt در مسیر اصلی سایت خود ایجاد کنید و محتوای فوق را در آن کپی نمایید. دقت کنید که دستور disallow باید در خط بعد از user-agent قرار بگیرد.

سئو تکنیکال یا سئو فنی چیست؟ آموزش سئو تکنیکال

تعرفه طراحی سایت فروشگاهی بسیار متفاوت است اما با هر هزینه ای باید انتظاراتی متناسب داشته باشید. با توجه به اینکه بخش اعظمی از مشتریان در این بازار مجازی به دنبال شما هستند، بنابراین شما با حجم زیادی از مشتریان روبه‌رو هستید که باید خودتان را به آن‌ها معرفی کنید. طراحی سایت بیمه بهترین فرصت برای معرفی کسب و کار شما به حجم زیادی از مشتریان بالقوه‌ی شماست. پس از مشخص کردن ربات هدف باید دستورات لازم را به آنها بدهید. در این دستورات به ربات ها می گویید که کدام یک از صفحات شما اجازه ایندکس شدن دارند یا ندارند.

دستور دیس الو (Disallow)

زمانی که به مدیریت بودجه خزش و دسترسی ربات های گوگل می پردازیم، اولویت بررسی صفحات را مشخص کرده ایم. در حقیقت این امکان را فراهم می کنیم که صفحات اصلی در ساختار سایت بیشتر مورد توجه گوگل بوده و بررسی شوند. پس برای اینکه در دنیای تجارت بتوانید از رقبای خود پیشی بگیرید باید تمام مسائل را موردتوجه قرار دهید. شما توسط فایل Robots.txt می‌توانید به‌راحتی سئو سایت خود را بالا ببرید.

فایل robots txt و کاربردهای آن در سئو روکا

همانطور که متوجه شدید، اگر فایل رباتی در کار نباشد، خزنده‌های موتور جستجو گوگل سرشان را می‌اندازند پایین و هرچیزی که جلو دستشان برسد را بررسی می‌کنند. موتورهای جستجو معمولاً اطلاعات قرار داده شده در Robots.txt را برای چند روز در حافظه خود نگه می‌دارند. در صورتی که این فایل را بروزرسانی کرده‌اید بهتر است آدرس آن را برای بررسی در گوگل سرچ کنسول ارسال کنید تا سریع‌تر بروز رسانی شود. اگر می‌خواهید یک فایل Robots.txt ایجاد کنید بهترین راهنما برای شما دستورالعمل گوگل است. این دستورالعمل یک فرایند چند خطی است که به شما در کوتاهترین زمان ممکن آموزش می‌دهد چه دستوراتی را در فایل خود قرار دهید تا ربات‌های گوگل بتوانند به خوبی در سایت شما جستجو کنند. در یک فایل Robots.txt با چندین دستورالعمل، می‌توان قوانین مجاز به دسترسی و عدم مجاز به دسترسی را ایجاد کرد.

  • مجددا باید تکرار کنیم که استفاده از این دستور صرفا صفحات را از دسترسی ربات‌ها مخفی می‌کند و ممکن است کاربر با کلیک روی لینک این صفحات امکان بازدید صفحه را داشته باشد و یا حتی این صفحات در نتایج جستجو فهرست شوند.
  • این یعنی در ابتدا باید ربات های مورد نظر را فراخوانی کنید سپس به آنها دستور ایندکس کردن یا نکردن صفحات را بدهید.
  • با این حال، تگ noindex از نشان دادن محتوا در صفحات دیگر نیز جلوگیری می‌کند.
  • شما باید یک فایل ربات داشته باشید که حداقل یک دستور درون خود دارد.
  • هم چنین از انجام به روز رسانی های مداوم این فایل خودداری کنید.
  • این صفحات برای وب سایت شما ضروری هستند ولی نمی خواهید در گوگل فهرست بندی شوند.

فایل robots.txt سایت یک راهکار برای برقراری ارتباط با ربات های موتور جستجو است. شما به کمک این فایل که در هاست سایتتان قرار گرفته و البته متنی که درون آن نوشته شده، میتوانید به ربات های خزنده موتور جستجو فرمان بدهید. این که ربات‌های خزنده هر چند وقت یک بار به سایت شما سر می‌زنند به چند فاکتور بستگی دارد. هر چه در طول روز تعداد بیشتری محتوا در وب‌سایت‌تان قرار بگیرد و تغییرات سایت اهمیت زیادی داشته باشد، ربات‌های جستجوگر دفعات بیشتری به سایت شما مراجعه می‌کنند.

robot txt در سئو چیست؟

برای خزیدن در بین وب‌سایت‌ها موتورهای جستجو از لینک‌های قرار داده شده در سایت‌ها استفاده می‌کنند. درنتیجه در داخل یک سایت چرخیده و از یک سایت به سایت دیگر لینک می‌شوند. درنهایت خزنده‌ها بین میلیاردها لینک و وب‌سایت می‌خزند و اطلاعات را جمع‌آوری می‌کنند.

چک کردن وجود فایل robots.txt

تکنولوژی پیشرفته برنامه‌نویسی ما در ربات‌سازی، سبب شده طی سال‌ها هیچ یک از محصولاتمان به عنوان یک ربات، توسط پلتفرم‌های بزرگی نظیر اینستاگرام یا گوگل، شناسایی نشوند و همیشه فعال و کارآمد باقی بمانند. 10 سال به روز رسانی مستمر و ارائه صدها ویژگی جدید پیشگام در شناسایی آخرین الگوریتم‌های گوگل توضیح بیشتر… مثلا اگر شما در صفه ای از سایتتون روزانه یک سرچ هم نداشتید، یک دفعه اون از رو صفر به ده یا بیست تا نرسونید اول با روزی 3 الی 4 تا سرچ شروع بکنید و بعد از 2 روز بکنیدش 7 یا 8 تا.

در دنیای اینترنت، بیش از هزاران نرم افزار برنامه نویسی شده برای خزیدن داخل وب وجود دارند که به آن‌ها ربات‌های خزنده یا crawler گفته می‌شود. به کمک متا تگ noindex در هدر یک صفحه می‌توان امیدوار بود که این صفحه به صورت کامل از نتایج گوگل حذف خواهد شد. برای اینکار کافیست در هدر صفحه مورد نظر به صورت زیر عمل کنید. همان‌طور که قبلاً هم گفته شد Robots.txt در پوشه اصلی سایت قرار می‌گیرد.

خب، بیایید به موضوع اصلی خودمان یعنی فایل robots.txt برگردیم. ربات‌ها در واقع نرم‌افزارهایی هستند که به صورت خودکار صفحه‌های مختلف را باز و بررسی می‌کنند. مجوز سیب سلامت چیست و چرا باید آن را جدی گرفت؟ مجوز سیب سلامت چیست؟ دریافت این مجوز چه سودی برای کسب و کار دارد؟ چه محصولاتی می‌توانند سیب سلامت دریافت کنند؟ ضروری‌ترین اطلاعاتی را که… سلام همون فایل xml رو که توی کد های مقاله (غیرفعال کردن Feed وردپرس از ۲ روش مختلف) نوشته بودید رو نشون میده.

برنامه رباتیک و شماره سریال برنامه اجرا کننده

و باقیش، وهر چقدر که در ادامه از این ربات استفاده بکنید برای شما سود خالص هست. برای ویرایش robots.txt در وردپرس بایستی یک فایل متنی با همین نام را در مسیر روت آن آپلود نمایید. با انجام این کار دیگر فایل robots.txt مجازی وردپرس مشاهده نخواهد شد. هر یک از ساب دامین های وب سایت بایستی دارای فایل robots.txt مختص به خود باشند. به عبارت دیگر blog.example.com و example.com بایستی هر یک دارای فایل robots.txt مجزایی در مسیر خود باشند. این دستورات در فایل robots.txt به تمام پایشگرهای وب اعلام می کند که می توانند تمام صفحات دامنه را پایش کنند.

خیلی ممنونم من دوتاربات ازتون خریدم هردوعالی کارمیکنن خیلی به کسب وکارم کمک کردن. برنامه بسیارکاربردیوعالیه،واقعابه عنوان یک دستیارمیتونیدروش حساب بازکنید.ناگفته نماندپشتیبانی بسیارخوبی هم دارید،موفق باشید.. واقعاازاین برنامه بازخوردخیلی خوبی گرفتم.چندتامشکل داشتم وپشتیبانی قوی وعالی سایت کاربرمجازی درکمترین زمان ممکن … برنامه خیلی خوبیه نسبت بهsms کارخیلی راحت میشه.بیشترمردم درشبکه های اجتماعی هستن وهمچین نرم افزاری واقعانبود..

لزوم استفاده از فایل Robots.txt خصوصا در سایت های فروشگاهی که تعداد صفحات بی شماری دارند، اهمیت بسیار بالایی پیدا می کند. تمامی حقوق این سایت محفوظ و متعلق به شرکت طراحی سایت طرح و پردازش مبنا می باشد. سلام درست می‌فرمایید منظور در کد آخر جای گیری کد سایت مپ بود نه اینکه کد رو توی سایت قرار بدید. با گذشت حدود 15 روز دیروز به صورت ناگهانی توی وبمستر حدود 1000 عدد ایندکسمون حذف شدن.