خوب، تا اینجا، از 404s در این شرایط استفاده نکنید، اما از rel=canonical استفاده کنید – متوجه شدم.
سوال اینجاست:
سلام! تازه وارد جامعه شده اما حدود 5 سال است که در سئو کار کرده ام. کار جدیدی را به عنوان تنها مدیر سئو شروع کردم و به فکر بودجه خزیدن هستم. در مقایسه با 2k که خزیده و نمایه شده اند، 20 هزار URL فهرست نشده خزیده شده وجود دارد – این به دلیل خطا نیست، بلکه به دلیل تعداد بالای URL های خاص UTM/کمپین و (عمدا) صفحات 404 است.
من امیدوار بودم که این بودجه خزیدن را کمی متعادل کنم و URL های UTM/کمپین را از خزیدن از طریق robots.txt و با تبدیل برخی از 404 به 410 حذف کنم (به سلامت کلی سایت نیز کمک می کند).
بنابراین گوگل احتمالاً URLهای تکراری، پارامترهای UTM را به هر حال مدیریت خواهد کرد، حتی اگر آنها را ایندکس کنند. اما برای خوشحال کردن مشاوران سئو از rel=canonical استفاده کنید؟ این چیزی است که او اینجا می گوید؟ من این پاسخ را دوست دارم، اگر این پیام او باشد – اما شاید من اشتباه متوجه شدم؟
آیا کسی می تواند به من کمک کند تا بفهمم که آیا این می تواند ایده خوبی باشد یا به طور بالقوه می تواند باعث آسیب شود؟
حالا مجبور شدم چند بار پاسخ جان را بخوانم Reddit و شاید من قسمت آخر را اشتباه تفسیر می کنم، پس در اینجا به من کمک کنید.
جان سپس از نظر سئو توضیح داد، احتمالاً مهم نیست؟
برای هر دوی این موارد، من گمان می کنم که در جستجوی سایت خود هیچ تغییر قابل مشاهده ای را مشاهده نخواهید کرد (با عرض پوزش، علاقه مندان به سئوی فناوری). Re-canonical در URL های UTM مطمئناً راه حل تمیزتری نسبت به این است که اجازه دهید آنها به تنهایی جمع شوند و حباب شوند. رفع زودهنگام به این معنی است که 10 نسل سئوکار را دریافت نمی کنید که شما را از “مشکل محتوای تکراری” مطلع می کند (که به هر حال اگر ایندکس نمی شوند مشکلی وجود ندارد؛ و وقتی ایندکس می شوند، حذف می شوند. به هر حال به صورت تکراری)، بنابراین حدس میزنم سرمایهگذاری خوبی برای استفاده آینده شما از زمان باشد 🙂
بحث انجمن در Reddit.
پاسخ متعارف جان:
برای پارامترهای UTM من فقط rel-canonical را تنظیم می کنم و آنها را به حال خود رها می کنم. rel canonical همه آنها را ناپدید نمی کند (و نه robots.txt)، اما این رویکرد تمیزتر از مسدود کردن است (این همان چیزی است که rel canonical اساساً برای آن ساخته شده است).
پاسخ جالبی از جان مولر از Google در مورد اینکه با URL هایی که ممکن است به دلیل پارامترهای URL مانند UTM ها در انتهای URL ها تکراری به نظر برسند، چه باید کرد. جان گفت قطعا آن URL ها را 404 نکنید، که فکر می کنم هیچ کس با آنها بحث نمی کند. اما او همچنین گفت که می توانید از rel=canonical استفاده کنید زیرا برای همین ساخته شده است. نکته مهم این است که او گفت احتمالاً به هیچ وجه برای سئو مهم نیست.
پاسخ جان 404:
صفحاتی که وجود ندارند باید 404 را برگردانند. شما برای 410 کردن آنها چیزی از نظر سئو به دست نمی آورید. تنها دلیلی که شنیده ام که می توانم آنها را دنبال کنم این است که تشخیص تصادفی صفحات 404 در مقابل صفحات شناخته شده حذف شده را آسان تر می کند. دهه 410 (IMO اگر صفحات مهم شما به طور تصادفی به 404 تبدیل شوند، احتمالاً بدون در نظر گرفتن کد نتیجه، به سرعت متوجه خواهید شد)