میتونید از سرچ کنسول دوباره درخواست ایندکس بدید، نقشه سایت رو دوباره بررسی و آپلود کنید. مثلاً میتوانید بررسی کنید آیا ربات مخصوص تصاویر گوگل به یک صفحه خاص دسترسی دارد یا نه. امکان به همان صفحه اجازه دسترسی ربات وب را داده باشید اما ربات تصاویر مجاز به دریافت تصاویر و نمایش آن در نتایج جستجو نباشد. هر حالت دیگری که فایل ربات در ریشه سایت نباشد آن را از دسترس رباتهای گوگل خارج میکند. ربات گوگل ، به شکلی طراحی شده است تا شهروند خوبی برای دنیای اینترنت باشد.
- خب، بیایید به موضوع اصلی خودمان یعنی فایل robots.txt برگردیم.
- اما در برخی سایتهای کوچک با تعداد صفحههای محدود، میتوان در مواردی حتی قید این فایل را هم زد و به موتورهای جستجو اجازه داد تا تمام صفحات را بررسی کنند.
- در حال حاضر لایسنس برنامه، تک کاربره بوده و تنها میتوان بر روی 1 کامپیوتر (یا سرور) از آن استفاده کرد.
- نتایج کم کلیک باید در نتایج پایین تر قرار بگیرند زیرا کمتر با عبارات جستجو شده ارتباط دارند، و بدیهی است که نتایجی که مرتباً کلیک می شوند به سمت نتایج بالا صفحه می روند.
- (۱) تو فایل robot.txt آدرس های فارسی رو چجوری disallow کنیم چون من هرجوری مینویسم و از وبمستر تست میگیرم Allow هست.
در نهایت بعد از انجام تغییرات خود میتوانید بر روی گزینه ذخیره تغییرات در robots.txt کلیک کنید تا تغییرات شما ذخیره شوند. بنده معمولا دیدگاه ثبت نمیکنم اما حیفم اومد برای این مقاله تشکر نکنم. (همچنین، اگر از پلاگین های وردپرس برای ریدایرکت یا کاستومایز پرمالینک ها استفاده کرده باشید، ممکنه اشکال از این پلاگین ها باشه و با غیر فعال کردنشون ممکنه که این مشکل برطرف بشه). در مورد مشکلت فکر نمی کنم robots.txt بتونه بهت کمکی بکنه چون این مشکل باید از یک جای دیگه درست بشه.
درنتیجه در داخل یک سایت چرخیده و از یک سایت به سایت دیگر لینک میشوند. درنهایت خزندهها بین میلیاردها لینک و وبسایت میخزند و اطلاعات را جمعآوری میکنند. بعد از ایجاد و یا انجام اصلاحات در فایل ربات، باید از صحت تغییرات خود مطمئن شوید. بهترین روش برای اینکار استفاده از ابزار تست فایل robots.txt گوگل سرچ کنسول است. به کمک فایل robots.txt میتوانیم دقیقا مشخص کنیم که کدام یک از این رباتها به کدام بخشهای سایت اجازه دسترسی دارند و کدام یک باید دارای محدودیتهایی برای بررسی سایتمان باشند. برای جلوگیری از دسترسی رباتها چند راه مختلف وجود داره که در انتهای مقاله توضیح دادیم.
روش 1: ویرایش فایل Robots.txt با استفاده از Yoast SEO
هنگامی که فایل robots.txt خود را دارید، وقت آن است که آن را زنده کنید. به عنوان یک فایل متنی، در واقع می توانید با استفاده از دفترچه یادداشت ویندوز یک فایل ایجاد کنید. در این قسمت پاسخ تعدادی از سوالات متداول در مورد اهمیت robots.txt و نحوه ایجاد آن ارائه شده است. اگر پاسخ سوال شما در این قسمت نیست، سوال خود را قسمت نظرات برای ما بنویسید. همواره از عدم وجود خطا در فایل robots.txt خود اطمینان حاصل کنید.
چطور از گوگل بخواهیم صفحهای را در نتایج جستجو نمایش ندهد؟
کدام دایرکتوری ها یا فایل هایی که User-agent میتواند به آن دسترسی داشته باشد. این یکی ازبهترین برنامه هاوپرکاربرترین برنامه هایی هست که تاالان باهاش کار کردم وپشتیبانی بسیارقوی منوحمایت کردندوازتمام… دستتون دردنکنه وتشکرازراهنمایی های خوبتون چشم تمام مواردروکه گفتین انجام میدم تاسایت خوب رنک بگیره.ممنون میشم اگه…
سلام ربات واقعاعالی کارمیکنه، خیلی خوشم آمدازاین خرید که کردم. من میخوام برای ارسال پیام انبوه تلگرام و واتساپ هم خریدکنم.. پس نیازه شما هم درمورد منطق موتور های جست وجو هوشیاری لازم رو به خرج بدین و کارکرد کل سیستم رو ببینید. همچنین ما همیشه رباتهای داخل پکیج را نیز مطابق آخرین الگوریتمها بطور مستمر به روز رسانی میکنیم تا عملکرد موّفق محصولاتمان را تضمین کنیم. ما این الگوریتمها را در فایلهای آموزشی موجود در پکیج، در اختیار خریداران قرار میدهیم.
از نظر فنی می توانید فایل robots.txt را در هر فهرست اصلی سایت خود قرار دهید. در اینجا ما به ربات های گوگل می گوییم که در وب سایت ما در تمام فولدرهای مربوط به تصاویر خزش نکنند. با مسدود کردن صفحات غیر ضروری ربات های گوگل زمان لازم را برای خزش در صفحات مهم به دست می آورند و می توانند آنها را فهرست بندی کنند. بسیاری از موتورهای جستجو به دستور العمل های این فایل توجه می کنند. و با یک ویرایشگر متن ساده مثل Notepad یا TextEdit آن را ویرایش کنید.