فایل robots txt چیست و چه تاثیری در سئو سایت دارد؟ 2022-جان مولر


و با انجام همه روزه این کار فرایند رشد یا افت سایت تان در عبارت کلیدی مختلف را جلوی چشم خواهید داشت. البته باید این را در نظر داشت که برخی از قالب ها با تکتولوژی های مختلفی محتوا را نشان می دهند که اگر این ها مسدود شوند، روبات های گوگل یا هر موتور جستجوی دیگری نمی تواند آن را کرال کند. فایل Robots.txt یک فایل متنی است که مدیران وبسایت از آن برای هدایت ربات‌های موتور جستجو استفاده می‌کنند و با کمک آن می‌توان نحوه خزیدن و ایندکس صفحات وبسایت را فهرست کرد. یک Robots.txt درواقع یک فایل متنی ساده است که در مسیر اصلی فضای سایت شما یا روت دایرکتوری قرار می‌گیرد. در حقیقت وظیفه این فایل معرفی بخش‌های قابل دسترسی و بخش‌های محدود شده برای دسترسی ربات‌ها می‌باشد.

  • اگر وبسایت خود را به ابزار سرچ کنسول گوگل متصل کرده باشید، وقتی این ابزار تست را باز کنید از شما می‌خواهد که سایت متصل شده مورد نظر را انتخاب کنید.
  • اما پیش از آن بهتر است با مطالعه مطلب “ساخت سایت مپ ” نقشه سایتتان را بسازید.
  • پس انعکاس تغییرات اعمال شده در فایل Robots.txt زمان زیادی نخواهد برد و سریعا اعمال می‌شود.
  • درواقع این دستور، بیانگر آدرس‌هایی است که می‌خواهید از ربات‌های جستجو پنهان بماند.
  • با این دستور، ربات های موتورهای جستجو به هیچ وجه نمی‌توانند وب سایت را بخزند.
  • آیا از وجود فایل robots.txt در وب سایت خود مطمئن نیستید؟ تنها کافیست که عبارت robots.txt را به انتهای نام دامنه خود اضافه کرد و یو آر ال نهایی را در مرورگر خود وارد کنید.

همچنین گوگل دارای ربات Googlebot-Image برای جست جوی تصاویر نیز است. اکثر موتورهای جستجو از قوانین یکسان استفاده می‌کنند، بنابراین نیازی نیست برای هر موتور جستجو یک دستورالعمل مجزا نوشته شود. برای خزیدن در بین وب‌سایت‌ها موتورهای جستجو از لینک‌های قرار داده شده در سایت‌ها استفاده می‌کنند.

دستورات تعیین سطح دسترسی فایل robots.txt در وردپرس

Robots.txt یک گزینه برای به حداقل رساندن محتوای تکراری موجود برای خزیدن است. روش‌های دیگری برای اطلاع‌رسانی به Google در مورد محتوای تکراری است اما می‌توانید با استفاده از فایل‌های robots.txt محتوای تکراری را حذف کنید تا بودجه خزیدن خود را نیز حفظ کنید. این راهنمای مفید از Google اطلاعات بیشتری در مورد قوانینی که می توانید برای مسدود کردن یا اجازه ربات ها به خزیدن صفحات مختلف سایت شما استفاده کنید. و مهم نیست که در نهایت فایل robots.txt را چگونه و با چه روشی می سازید.

بهترین روش برای پیشگیری از مسدود شدن محتوا

همان Notepad ساده ویندوز یا هر ویرایشگر متن دیگر که فایل خروجی از نوع TXT می‌دهد قابل استفاده است. بهتر است دستورالعمل‌های هر موتور جستجو را بخوانید تا مطمئن شوید دستوراتی که می‌نویسید برای همه موتورهای جستجو کار می‌کند. با استفاده درست از فایل robots.txt می توانید به ربات‌های جستجو بگویید که Crawl Budget سایت‌تان را به درستی مصرف کنند.

روش 2. ویرایش فایل Robots.txt وردپرس دستی با استفاده از FTP

زمانی که به مدیریت بودجه خزش و دسترسی ربات های گوگل می پردازیم، اولویت بررسی صفحات را مشخص کرده ایم. در حقیقت این امکان را فراهم می کنیم که صفحات اصلی در ساختار سایت بیشتر مورد توجه گوگل بوده و بررسی شوند. است که با کمک آن و درج دستورات تحت وب می‌توان کارهای مختلفی از جمله ایجاد دسترسی یا محدودسازی ربات موتورهای جستجو را انجام داد. به طور خلاصه، فرض کنید که یک قطعه از محتوا را با استفاده از iframe جاسازی کرده ایم. آن قطعه از محتوا اغلب، اگر مربوط به رسانه ای باشد، دستورالعملی برای عدم فهرست بندی خواهد داشت. اما وقتی کدهای مربوطه را در صفحات خود جاسازی می کنید، ممکن است گوگل پیشنهاد دهد که به دلیل اینکه محتوای جایگذاری شده بدون فهرست است، این کار را انجام ندهید.

دستورالعمل های متا نمی تواند برای منابع چندرسانه ای مانند PDF ها و تصاویر به خوبی Robots.txt عمل نماید. همچنین با مراجعه به Google Search Console و تایید مالکیت سایت خود، می‌توانید از صحیح بودن وضعیت robots.txt روی سایت خود مطمئن شوید. فرض پیش‌فرض این است که یک User-agent می‌تواند هر صفحه یا دایرکتوری را که توسط قانون غیرمجاز مسدود نشده است بخزد. هر گروه با یک خط User-agent شروع می‌شود که هدف گروه ها را مشخص می‌کند. کلیه حقوق این سایت برای شرکت “بهسازان مجازی فناوری اطلاعات آمارد” محفوظ می‌باشد.