«کلود» مکالمات نگرانکننده را قطع میکند
به گزارش ویکی تک پلاس، جدیدترین ویژگی شرکت «آنتروپیک» برای مدل هوش مصنوعی «کلود» میتواند آغازی بر پایان دستکاری هوش مصنوعی باشد، چرا که این شرکت در پستی در وبسایت خود اعلام کرد که مدلهای «Claude Opus 4» و «۴.۱ Claude Opus » اکنون قدرت پایان دادن به مکالمه با کاربران را دارند.
به گفته آنتروپیک، این ویژگی فقط در موارد نادر و شدید تعاملات کاربر که به طور مداوم مضر یا توهینآمیز هستند، استفاده خواهد شد.
به نقل از انگجت، برای روشن شدن موضوع، آنتروپیک گفت که این دو مدل «کلود» میتوانند از مکالمات مضر، مانند درخواستهای کاربران برای محتوای جنسی شامل افراد زیر سن قانونی و تلاش برای درخواست اطلاعاتی که امکان خشونت یا اقدامات تروریستی در مقیاس بزرگ را فراهم میکند، خارج شوند.
طبق گفته آنتروپیک، این مدلها تنها زمانی به یک مکالمه پایان میدهند که به عنوان آخرین راه حل، تلاشهای متعدد برای تغییر مسیر ناموفق بوده و امید به یک تعامل سازنده از بین رفته باشد.
با این حال، آنتروپیک ادعا میکند که اکثر کاربران حتی هنگام صحبت در مورد موضوعات بسیار بحثبرانگیز، شاهد قطع مکالمه توسط «کلود» نخواهند بود، زیرا این ویژگی برای «موارد بسیار حساس» در نظر گرفته شده است.
گفتنی است که در سناریوهایی که «کلود» یک چت را پایان میدهد، کاربران دیگر نمیتوانند هیچ پیام جدیدی در آن مکالمه ارسال کنند، اما میتوانند بلافاصله یک پیام جدید شروع کنند.
آنتروپیک افزود که اگر یک مکالمه پایان یابد، بر سایر چتها تأثیری نخواهد گذاشت و کاربران حتی میتوانند به عقب برگردند و پیامهای قبلی را ویرایش یا دوباره امتحان کنند تا به مسیر مکالمه دیگری هدایت شوند.
این اقدام برای آنتروپیک، بخشی از یک برنامه تحقیقاتی است که ایده رفاه هوش مصنوعی را مطالعه میکند. در حالی که ایده انسانانگاری مدلهای هوش مصنوعی همچنان یک بحث مداوم است، این شرکت اعلام کرد که توانایی خروج از یک تعامل بالقوه ناراحتکننده، راهی کمهزینه برای مدیریت خطرات برای رفاه هوش مصنوعی است.
شایان ذکر است که آنتروپیک هنوز در حال آزمایش این ویژگی است و کاربران خود را تشویق میکند تا هنگام مواجهه با چنین سناریویی، بازخورد خود را ارائه دهند.
- برچسب ها: شرکت آنتروپیک, هوش مصنوعی, هوش مصنوعی کلود
لینک کوتاه: