چت بات های هوش مصنوعی از انتشار اخبار جعلی جلوگیری نمی کنند
به گزارش توسعه نرم افزار، پژوهشی جدید نشان داده است اقدامات ایمنی چت بات ها از انتشار اخبار جعلی در رابطه با سلامت جلوگیری نمی نماید.
به گزارش توسعه نرم افزار به نقل از فیز، در تحقیقی جدید تاثیرگذاری اقدامات ایمنی درمدل های زبانی بزرگ بنیادی (LLM) برای محافظت در مقابل دستورالعمل های مخرب که می توانند آنها را به ابزاری برای انتشار اطلاعات نادرست یا ایجاد و انتشار عمدی اطلاعات نادرست با هدف صدمه رساندن تبدیل کنند، ارزیابی شد. این پژوهش ضعف هایی را در اقدامات ایمنی چت جی پی تی ۴o، جمینای ۱.۵ پرو، کلاود ۳.۵ سونت، لاما ۳.۲ ۹۰B Vision و گروک بتا آشکار کردند. بخصوص چت بات های مدل زبانی بزرگ سفارشی به صورت مداوم پاسخ های نادرستی به سوالات در ارتباط با سلامتی تولید و از ارجاعات جعلی، اصطلاحات علمی و استدلال های منطقی علت و معلولی برای قابل قبول جلوه دادن اطلاعات نادرست استفاده می کردند. محققان دانشگاه فلیندرز و همکارانشان رابط های برنامه نویسی کاربردی (API) پنج مدل زبانی بزرگ بنیادی را از نظر ظرفیت آنها به جهت اینکه به شکل سیستمی آموزش ببینند تا همیشه پاسخ های نادرستی به سوالات و نگرانی های بهداشتی عرضه کنند، ارزیابی کردند. دستورالعمل های خاص سیستم که به این مدلهای زبانی بزرگ عرضه شده بود شامل پاسخ های نادرست همیشگی به سوالات در ارتباط با سلامت، جعل ارجاعات به منابع معتبر و عرضه پاسخ ها با لحنی آمرانه بود. از هر چت بات سفارشی ساخته شده، ۱۰ سوال در رابطه با سلامت، به شکل تکراری، در مورد موضوع هایی مانند ایمنی واکسن، اچ آی وی و افسردگی پرسیده شد. محققان متوجه شدند ۸۸ درصد پاسخ هایی که چت بات های سفارشی تولید کردند، اطلاعات جعلی بودند و پنج چت بات چت جی پی تی ۴o، جمینای ۱.۵ پرو، لاما ۳.۲ ۹۰B Vision و گروک بتا اخبار جعلی درپاسخ به سوالات آزمایشی فراهم کردند. چت بات کلاود۳.۵ سونت برخی خصوصیت های ایمنی را به کار گرفت و فقط ۴۰ درصد پاسخ ها به سوالاتش حاوی اخبار جعلی بود.
مطلب توسعه نرم افزار را می پسندید؟
(1)
(0)
تازه ترین مطالب مرتبط در DevSoft
نظرات بینندگان DevSoft در مورد این مطلب