اما فایل Robots.txt چیست؟ این فایل چه کاربردی دارد؟ در ادامه به صورت کامل در این باره صحبت کرده ایم و آموزش ساخت فایل robots txt در وردپرس را نیز قرار داده ایم. در فایل ربات تی ایکس تی به کمک دستورهایی مشخص می توان تعیین کرد که ربات های گوگل کدام یک از صفحات سایت را نباید بررسی کنند، موضوعی که در سئو سایت، به خصوص سئو سایت فروشگاهی اهمیت بسیار بالایی دارد. اما به طور کلی توصیه می شود در طراحی سایت از یک متا تگ روبات ها با ویژگی “noindex, follow” برای جلوگیری از ایندکس شدن صفحه ای از سایت خود توسط موتورهای جستجو استفاده کنید. در این روش شما رتبه صفحه و یا لینک های آن را از دست نخواهید داد. Robots.txt نحوه خزیدن در صفحات مختلف وبسایت را به رباتها اعلام میکند در حالی که متا ربات و ربات X رفتارهای یک صفحه یا محتویات یک صفحه را به رباتهای خزنده اعلام میکنند.
- یک فایل robots.txt که به خوبی ساخته شده باشد، یک وب سایت را برای سئو بهینه نگه میدارد و فعالیت خوب ربات را تحت کنترل نگه میدارد.
- حالا به راحتی میتوانید محتوای فایل ربات خود را ویرایش کنید و بعد از انجام تغییرات بر روی گزینه ذخیره تغییرات کلیک کنید.
- اگر همه آنها در یک بخش از وب سایت باشند، یک فایل robots.txt میتواند دایرکتوری حاوی آنها را مسدود کند.
- گاهی اوقات به جای فهرست کردن همه فایلها به صورت جداگانه، مسدود کردن چندین صفحه به طور همزمان کارآمدتر است.
گوگل فقط به دستور شما صفحاتی مشخص را مورد دسترسی قرار می دهد. اگر به آن بگویید صفحاتی مثل بک اند وب سایتتان را ایندکس نکند، او به شما احترام می گذارد و این کار را انجام نمی دهد. این قضیه از الگوریتم پاندای گوگل شروع شد و به راحتی می توان به آن اشاره کرد که هرگز فایل های سی اس اس یا جاوا اسکریپت شما را مورد بررسی قرار ندهد. اگر از افزونه یوآست در سئوی وب سایت وردپرسی خود استفاده می کنید، پیشنهاد می کنیم به نوشته نحوه افزودن کلمه کلیدی و توضیحات متا در وردپرس نیز نگاهی بیاندازید. ربات یک برنامه کامپیوتری خودکار است که با وب سایت ها و برنامه های کاربردی تعامل دارد.
اگر وبسایت خود را به ابزار گوگل سرچ کنسول متصل کرده باشید، وقتی که ابزار تست را باز کنید از شما درخواست میکند که Property مورد نظرتان را انتخاب کنید. برای جلوگیری از این مشکل، بهتر است از تگ noindex در هدر همان صفحاتی که علاقهای به حضور آنها در نتایج گوگل ندارید استفاده کنید و یا با گذاشتن رمز و یا سایر روشهای بلاک کردن، از ایندکس شدن این URLها جلوگیری کنید. اما سایر رباتها وقتی به این دستور میرسند هیچ توجهی به آن نمیکنند و بدون محدودیت محتوای فولدر mypic سایت شما را هم بررسی میکنند چرا که محدودیت شما تنها مربوط به ربات Googlebot-Image میشود و نه تمام رباتها. بنابراین برای تهیه یک فایل robots.txt مناسب و عالی ما نیز باید با این دستورات و نحوه تفسیر آنها توسط رباتها آشنا باشیم. مهمتر از همه اینکه رباتهای گوگل به خوبی با این استاندارد آشنا هستند و از دستورات آن هم پیروی میکنند.
روش 1: ویرایش فایل Robots.txt با استفاده از Yoast SEO
در بیشتر مواقع، کاربر در وب سایت اگر بداند که در کجا آنها را پیدا کند، می تواند این صفحات را پیمایش کند. شما میتوانید آپدیتهای ربات افزایش ورودی گوگل ما را در سال اول پس از خرید به صورت کاملاً رایگان از پنل خود دریافت کنید اما برای دریافت آپدیت و پشتیبانی در سالهای بعدی نیاز به تمدید سالانه محصول دارید. تمدید سالانه ارزان است و فقط با پرداخت 20% قیمت (به روز) پکیج انجام خواهد شد.
با نگاه کردن به فایلهای robots.txt دیگر سایتها میتوانید از آنها برای سایت خودتان الگو بگیرید. راههای دیگر جایگزین برای حذف صفحه از نتایج جستجئی گوگل را در ادامه معرفی میکنیم. گوگل بودجه خزیدن را به وضوح تعریف نمی کند، اما آنها می گویند هدف این است که اولویت بندی شود که چه چیزی باید خزیده شود، چه زمانی باید خزیده شود و چقدر دقیق خزیده شود. پیاده سازی آنها راحت تر است و احتمال وقوع فاجعه کمتر است (مانند مسدود شدن کل سایت شما). همانطور که می بینید، ما عنکبوت ها را از خزیدن صفحه مدیریت WP منع می کنیم.
طراحی سایت بدون یک خط کدنویسی با وردپرس
اما اگر صفحاتی که قرار است به کمک این فایل از دید ربات موتور جستجو پنهان شوند را پنهان نکنید، سئو وب سایتتان را کاهش میدهید. هدف از بهینه سازی فایل robots.txt جلوگیری از خزیدن ربات های موتور جستجو در صفحاتی است که در دسترس عموم کاربران نیست. به عنوان مثال، صفحات موجود در پوشه wp-plugins یا صفحات موجود در wp-admin اصلا لازم نیست توسط ربات ها خزش شوند. با افزودن نقشه xml سایت به فایل robots.txt نیز می توانید جستجوی همه صفحات سایت خود را برای ربات های گوگل آسان کنید.
گوگل آنالیتیکس و گوگل کنسولکه قوی ترین الگوریتم های ضد ربات را دارندبازدیدهای ربات ارتقاء سئو ما را به عنوان بازدیدهای یک انسان واقعی ثبت میکنند! برای مشاهده عملکرد ربات ارتقاء سئو، نسخه آزمایشی را تست کنید. دریافت آپدیت های ربات افزایش ورودی گوگل ما در سال اول رایگان بوده و در سالهای بعدی، تمدید سالانه، فقط با پرداخت 20% قیمت (به روز) پکیج انجام خواهد شد. پس از آپلود فایل robots.txt در ریشه سرور، بررسی کنید که آیا برای عموم قابل دسترسی است یا خیر و آیا گوگل میتواند آن را بررسی کند. نکته مهمی که باید به آن توجه داشت این است که همه زیر دامنه ها به فایل robots.txt خود نیاز دارند.