سئوی robots txt ، مثالی بزرگ برای جستجوگرها دهاستینگ فایل روبات سئو-جان مولر


در دنیای اینترنت، بیش از هزاران نرم افزار برنامه نویسی شده برای خزیدن داخل وب وجود دارند که به آن‌ها ربات‌های خزنده یا crawler گفته می‌شود. همانطور که تا اینجا متوجه شدید، برای حذف کامل یک فایل خاص مانند فایل‌های PDF یا تصاویر از نتایج گوگل، می‌توان به کمک محدودیت‌های فایل robot اینکار را به صورت کامل انجام داد. با توجه به محدود بودن این بودجه برای هر سایت، طبیعتا نباید اجازه دهیم بودجه خزش سایت ما صرف خزش محتواهایی از سایت‌مان شود که هیچ کمکی به افزایش ترافیک سایت ما نمی‌کنند.

اما به صورت کلی می‌توانیم امیدوار باشیم که تمام قوانینی که داخل فایل ربات سایت‌مان مشخص می‌کنیم توسط مهم‌ترین خزنده‌های وب یعنی خزنده‌های گوگل رعایت می‌شوند. وباید در کل بشینم همه لینک هارو درست کنم و به صفحات درست خودشون ریدایرکت کنم بجز این فکری به ذهنم نمیرسه . گوگل بعد از این که گفت استفاده از دستورات noindex و disallow کمکی به خارج کردن صفحات از نتایج جستجو نمی‌کند، راهکارهای دیگری برای این کار معرفی کرد. در انتها هم با زدن دکمه submit از گوگل بخواهید تا فایل جدید را دریافت و بررسی کند. اگر این کارها را با موفقیت انجام دهید، ساعت و تاریخ آخرین بررسی فایل ربات به زمانی بعد از درخواست تغییر می‌کند. برای اطمینان هم می‌توانید دوباره از همین ابزار برای مطمئن شدن استفاده کنید.

  • حالا خودتون با توجه به مزایایی که بهتون شرح دادم، کافیه یه دو دو تا چهارتا بکنید تا ببینید که استفاده از کدوم روش ها به نفع شما هست.
  • در صورتی که نیاز به دستکاری این فایل دارید، باید یک فایل جدید ساخته و آن را در هاست آپلود کنید.
  • به عنوان مثال، دامنه فایل مخصوص به خود را دارد، همه زیر دامنه های Cloudflare (blog.cloudflare.com، community.cloudflare.com و غیره) نیز به فایل خود نیاز دارند.
  • سوالی که شاید برای شما هم پیش بیاید این است که این فایل در کجا قرار دارد.
  • در ادامه به توضیح برخی از دستورات متداول در این فایل می پردازیم.

با استفاده از کد allow اجازه مشاهده یک فایل در فولدری که قبلا Disallowed شده را می دهید. تگ ها و برچسب هایی که محتوای تکراری را در سایت ایجاد می کنند. این واقعاً مهم است که فایل robots.txt شما به درستی تنظیم شود.

شیوه‌های جایگزین در مسدود کردن دسترسی ربات‌ها

اگر وبسایت بزرگی داشته باشید، امکان دارد ربات‌های گوگل تا چند ده هزار بار در روز صفحه‌های سایت را بررسی کنند. گفتیم فقط نباید از یک دونه ای پی استفاده بکنیم و باید به هنگام جست و جو های مختلف ای پی تون رو عوض بکنین، تا هویتتون مخفی باقی بمونه. این کد به ربات‌های جستجو دستور می‌دهد تا کلیه تصاویر و فایل‌های وردپرس را فهرست‌بندی کنند. همچنین با افزودن نقشه سایت به فایل robots.txt جستجوی کلیه صفحات سایت خود را برای ربات‌های گوگل آسان‌تر می‌کند.

طراحی سایت بدون یک خط کدنویسی با وردپرس

پروتکل دیگری که برای فایل‌های robots.txt استفاده می‌شود، پروتکل Sitemaps است. نقشه‌های سایت به خزنده وب نشان می‌دهند که در کدام صفحات می‌توانند بخزند. این کار کمک می کند تا مطمئن شوید که یک ربات خزنده هیچ صفحه مهمی را از دست نخواهد داد.

معایب robots.txt چیست؟

که مبحث جداگانه ای داره و قصد نداریم این موضوعات رو اینجا بررسی کنیم فقط می خوام بگم که به این جنبه ها هم باید خودتون توجه داشته باشید. گوگل لیستی از الگوهای تطبیقی و مثال ها را در اینجا گرداوری کرده است. کارکتر $ نیز برای اشاره به پایان یافتن یک یو آر ال استفاده می شود. برای قرار دادن کامنت می توانید از کاراکتر # در ابتدای توضیحات استفاده نمایید. اول تشکر کنم بابت سایت که همجوره جامعه وردپرس ایرانی داره ارتقا میده من از اولین روز یادگیری وردپرس همیشه تو این سایت مشکلات حل کردم. و با استفاده از پلاگین و تم های این سایت پروژه زیاد انجام دادم.

در ادامه می‌خواهیم با جزئیات کامل درباره همین فایل مهم صحبت کنیم. قدم به قدم جلو می‌رویم تا ببینیم چطور می‌توان از فایل Robots.txt استفاده کرد؛ چطور می‌توانیم ربات‌ها را محدود کنیم، چطور از ایندکس شدن صفحه‌ها جلوگیری کنیم و در نهایت یک فایل Robots.txt عالی بسازیم. از آنجایی که منبع محدودی از خزیدن دارید، می‌توانید robots.txt را نصب کنید تا از صفحات اضافی از طریق Googlebot جلوگیری کرده و آنها را به موارد مهم معرفی کنید. این کار باعث حذف ضایعات بودجه خزیدن شما می شود و هم شما و هم گوگل را از نگرانی در مورد صفحات نامربوط نجات می دهد. ما همچنین از robots.txt برای جلوگیری از خزیدن صفحات برچسب ایجاد شده توسط وردپرس (برای محدود کردن محتوای تکراری) استفاده می کنیم. اگر فایل robots.txt یک وب سایت ظاهر نشود، ممکن است خالی یا از دایرکتوری ریشه خالی باشد (که در عوض یک خطای 404 را برمی گرداند).