با این حال، دانشگاهیان و کارشناسان در مورد کارآمدی این امضا ابراز تردید کرده اند که ممکن است در همه جا کارساز نباشد و با استفاده از مترادف ها به راحتی قابل دور زدن باشد.
با این حال، محققان و کارشناسان در مورد کارایی آن ابراز تردید کرده اند، زیرا ممکن است در همه جا کارایی نداشته باشد و با استفاده از مترادف ها به راحتی قابل دور زدن باشد.
دانشگاه ها به طور خاص نگران تقلب دانشگاهی هستند، و بنابراین OpenAI به دنبال راه هایی برای شناسایی محتوای تولید شده توسط ChatGPT است.
گفتنی است، ChatGPT همچنین می تواند برای تولید محتوای مخرب یا مخفی کردن منشاء واقعی متون تولید شده استفاده شود.
اسکات آرونسون، محقق مدعو در OpenAI، از فاش کردن جزئیات این امضا خودداری کرد و OpenAI فقط فاش کرد که این امضا، شبیه به یک واترمارک برای تصاویر، بخشی از "بسته ای از راه حل ها" است که توسط آنها برای شناسایی محتوای تولید شده توسط آنها توسعه داده شده است. ChatGPT یا سایر تولیدکنندگان متن مبتنی بر هوش مصنوعی.
همچنین می توانید بهترین مقالات ما را از طریق فید RSS ما دنبال کنید: (فقط آن را در فیدخوان RSS مورد علاقه خود (مثلاً Feedly) قرار دهید).
از این ویژگی می توان برای نوشتن یک مقاله با سبک مشخص یا یافتن خطا در کد استفاده کرد.
چندین راه حل ممکن دیگر برای شناسایی محتوای تولید شده توسط هوش مصنوعی وجود دارد، مانند استفاده از مدل های زبان، تست های تورینگ یا کپچا.
این امضا می تواند برای شناسایی تقلب در امتحان یا محتوای مخرب معتبر استفاده شود. نمونه اولیه این ابزار در حال حاضر آماده است.
شما مایل به دریافت هستید بهترین مقالات ما ?