جان مولر گوگل در 404 یا استفاده از پارامترهای rel Canonical On URL


پاسخ جالبی از جان مولر از Google در مورد اینکه با URL هایی که ممکن است به دلیل پارامترهای URL مانند UTM ها در انتهای URL ها تکراری به نظر برسند، چه باید کرد. جان گفت قطعا آن URL ها را 404 نکنید، که فکر می کنم هیچ کس با آنها بحث نمی کند. اما او همچنین گفت که می توانید از rel=canonical استفاده کنید زیرا برای همین ساخته شده است. نکته مهم این است که او گفت احتمالاً به هیچ وجه برای سئو مهم نیست.

حالا مجبور شدم چند بار پاسخ جان را بخوانم Reddit و شاید من قسمت آخر را اشتباه تفسیر می کنم، پس در اینجا به من کمک کنید.

سوال اینجاست:

سلام! تازه وارد جامعه شده اما حدود 5 سال است که در سئو کار کرده ام. کار جدیدی را به عنوان تنها مدیر سئو شروع کردم و به فکر بودجه خزیدن هستم. در مقایسه با 2k که خزیده و نمایه شده اند، 20 هزار URL فهرست نشده خزیده شده وجود دارد – این به دلیل خطا نیست، بلکه به دلیل تعداد بالای URL های خاص UTM/کمپین و (عمدا) صفحات 404 است.

من امیدوار بودم که این بودجه خزیدن را کمی متعادل کنم و URL های UTM/کمپین را از خزیدن از طریق robots.txt و با تبدیل برخی از 404 به 410 حذف کنم (به سلامت کلی سایت نیز کمک می کند).

آیا کسی می تواند به من کمک کند تا بفهمم که آیا این می تواند ایده خوبی باشد یا به طور بالقوه می تواند باعث آسیب شود؟

پاسخ جان 404:

صفحاتی که وجود ندارند باید 404 را برگردانند. شما برای 410 کردن آنها چیزی از نظر سئو به دست نمی آورید. تنها دلیلی که شنیده ام که می توانم آنها را دنبال کنم این است که تشخیص تصادفی صفحات 404 در مقابل صفحات شناخته شده حذف شده را آسان تر می کند. دهه 410 (IMO اگر صفحات مهم شما به طور تصادفی به 404 تبدیل شوند، احتمالاً بدون در نظر گرفتن کد نتیجه، به سرعت متوجه خواهید شد)

پاسخ متعارف جان:

برای پارامترهای UTM من فقط rel-canonical را تنظیم می کنم و آنها را به حال خود رها می کنم. rel canonical همه آنها را ناپدید نمی کند (و نه robots.txt)، اما این رویکرد تمیزتر از مسدود کردن است (این همان چیزی است که rel canonical اساساً برای آن ساخته شده است).

خوب، تا اینجا، از 404s در این شرایط استفاده نکنید، اما از rel=canonical استفاده کنید – متوجه شدم.

جان سپس از نظر سئو توضیح داد، احتمالاً مهم نیست؟

برای هر دوی این موارد، من گمان می کنم که در جستجوی سایت خود هیچ تغییر قابل مشاهده ای را مشاهده نخواهید کرد (با عرض پوزش، علاقه مندان به سئوی فناوری). Re-canonical در URL های UTM مطمئناً راه حل تمیزتری نسبت به این است که اجازه دهید آنها به تنهایی جمع شوند و حباب شوند. رفع زودهنگام به این معنی است که 10 نسل سئوکار را دریافت نمی کنید که شما را از “مشکل محتوای تکراری” مطلع می کند (که به هر حال اگر ایندکس نمی شوند مشکلی وجود ندارد؛ و وقتی ایندکس می شوند، حذف می شوند. به هر حال به صورت تکراری)، بنابراین حدس می‌زنم سرمایه‌گذاری خوبی برای استفاده آینده شما از زمان باشد 🙂

بنابراین گوگل احتمالاً URLهای تکراری، پارامترهای UTM را به هر حال مدیریت خواهد کرد، حتی اگر آنها را ایندکس کنند. اما برای خوشحال کردن مشاوران سئو از rel=canonical استفاده کنید؟ این چیزی است که او اینجا می گوید؟ من این پاسخ را دوست دارم، اگر این پیام او باشد – اما شاید من اشتباه متوجه شدم؟

بحث انجمن در Reddit.



منبع