گوگل و بینگ برای بهبود خزیدن و کنترل‌های هوش مصنوعی به رویداد IETF دوبلین می‌روند.

گوگل بینگ دوبلین

گری ایلیز و جان مولر از گوگل، همراه با فابریس کانل از بینگ و احتمالاً نمایندگان دیگری از این موتورهای جستجو، این هفته برای شرکت در نشست IETF 121 دوبلین با هدف ارائه ایده‌هایی در مورد چگونگی بهبود پروتکل حذف ربات‌ها، در دوبلین شرکت کردند. این شامل بهبود راندمان خزیدن، افزودن کنترل‌های جدید هوش مصنوعی و موارد دیگر بود.

گری ایلیز به این تلاش‌ها اشاره کرد و حتی به IETF (گروه وظیفه مهندسی اینترنت) در قسمت Search Off The Record در اوایل سال جاری اشاره کرد.

و وقتی دیدم که جان مولر از گوگل در لینکدین پست کرده بود که او این هفته در دوبلین بود و سپس دیدم که فابریس کانل اظهار نظر کرد که او هم آنجاست، مرا به فکر فرو برد.

هر دو بر اساس پست و نظرات در آخرین لحظه جلسه غیررسمی سئو شرکت کردند.

بنابراین چه چیزی در این رویداد IETF ارائه شد؟ خب توضیحات میگه:

IETF Hackathon و IETF Codesprint در آخر هفته برگزار می شود. رویدادهایی برای کمک به شرکت‌کنندگان جدید برای استفاده حداکثری از جلسات IETF از بعدازظهر یکشنبه آغاز می‌شوند. شرکت کنندگان باید سفر خود را بر اساس آن برنامه ریزی کنند. مقدمه ای برای جلسات IETF یک نمای کلی از نحوه آماده شدن برای جلسات و استفاده حداکثری از جلسات در طول هفته را ارائه می دهد.

با کاوش عمیق‌تر، می‌توانید آنچه را که فابریس کانل با نام Robots Exclusion Protocol Extension برای مدیریت استفاده از محتوای هوش مصنوعی ارائه کرده است، مشاهده کنید. در چکیده آمده است: “این سند RFC9309 را با مشخص کردن قوانین اضافی برای کنترل استفاده از محتوا در زمینه هوش مصنوعی (AI) گسترش می‌دهد. من یک اسکرین شات از این صفحه گرفتم در صورتی که از بین برود یا تغییر کند.

سپس به نظر می‌رسد که گری ایلیز دارای پروتکل حذف روبات‌ها پسوند هدف عامل کاربر با این خلاصه است، “پروتکل حذف روبات‌ها که در (RFC9309) تعریف شده است، قانون عامل کاربر را برای هدف قرار دادن مشتریان خودکار یا با پیشوندی که با توکن محصول خود تعریف شده مطابقت دارد یا توسط یک نشان می‌دهد، مشخص می‌کند. قانون جهانی * که با همه مشتریان مطابقت دارد (RFC9309) با تعریف یک قانون جدید برای هدف قرار دادن مشتریان خودکار بر اساس هدف مشتریان برای دسترسی به خدمات، گسترش می یابد. من یک اسکرین شات از این صفحه گرفتم در صورتی که از بین برود یا تغییر کند.

گری همچنین دارای پسوند پروتکل حذف Robots برای کنترل سطح URI با خلاصه “این سند RFC9309 را با مشخص کردن کنترل‌های سطح URI اضافی از طریق هدر سطح برنامه و متا تگ‌های HTML که در ابتدا در سال 1996 توسعه یافته بودند، گسترش می‌دهد. (یعنی “X-“) و ترکیب پذیری هدرهای متعدد را تعریف می کند که قبلاً امکان پذیر نبود.” من یک اسکرین شات از این صفحه گرفتم در صورتی که از بین برود یا تغییر کند.

همه این‌ها در اکتبر ۲۰۲۴ به‌عنوان پیش‌نویس ارائه شدند و به‌طور بالقوه شامل سرنخ‌هایی در مورد اینکه چگونه Google و Bing می‌توانند خزیدن را برای بهبود کارایی و برای اهداف مدیریت محتوای هوش مصنوعی تطبیق دهند. بنابراین روی هر کدام کلیک کنید و بخوانید.

این هم عکسی از جلسه سئو:

به روز رسانی: جان مولر در این مورد در لینکدین پست کرد و نوشت:

فقط توجه داشته باشید که اگر به جزئیات فنی اهمیت می دهید و به اینترنت اهمیت می دهید، شرکت در گروه های استاندارد می تواند جالب باشد. وب از آسمان (و نه از یک “ابر”) سقوط نکرد. افرادی که به جزئیات اهمیت می‌دادند، سخت تلاش کردند تا آن را عملی کنند. این بحث ها تمام نشده است. شما هم می توانید یک نقش بازی کنید. وقت گیر است، انرژی می گیرد، اما تصور کنید بخشی از “وب بعدی” شامل ایده هایی باشد که شما به آن فکر کرده اید؟ چقدر باحال من به آن لینک می دهم.

بحث در انجمن در لینکدین.

منبع