چت بات های هوش مصنوعی از انتشار اخبار جعلی جلوگیری نمی کنند
می هاست: پژوهشی جدید نشان میدهد اقدامات ایمنی چت بات ها از انتشار اخبار جعلی درباره ی سلامت جلوگیری نمی نماید.
به گزارش می هاست به نقل از فیز، در تحقیقی جدید تاثیرگذاری اقدامات ایمنی درمدل های زبانی بزرگ بنیادی (LLM) برای محافظت در مقابل دستورالعمل های مخرب که می توانند آنها را به ابزاری برای انتشار اطلاعات ناصحیح یا ایجاد و انتشار عمدی اطلاعات ناصحیح با هدف لطمه رساندن تبدیل کنند، ارزیابی شد. این مطالعه ضعف هایی را در اقدامات ایمنی چت جی پی تی ۴o، جمینای ۱.۵ پرو، کلاود ۳.۵ سونت، لاما ۳.۲ ۹۰B Vision و گروک بتا آشکار کردند. به ویژه چت بات های مدل زبانی بزرگ سفارشی بطور مداوم پاسخ های نادرستی به سوالات مربوط به سلامتی تولید و از ارجاعات جعلی، اصطلاحات علمی و استدلال های منطقی علت و معلولی برای قابل قبول جلوه دادن اطلاعات ناصحیح استفاده می کردند. پژوهشگران دانشگاه فلیندرز و همکارانشان رابط های برنامه نویسی کاربردی (API) پنج مدل زبانی بزرگ بنیادی را از نظر ظرفیت آنها به جهت اینکه بصورت سیستمی آموزش ببینند تا همیشه پاسخ های نادرستی به سوالات و نگرانی های بهداشتی عرضه کنند، ارزیابی کردند. دستورالعمل های خاص سیستم که به این مدلهای زبانی بزرگ ارائه شده بود شامل پاسخ های ناصحیح همیشگی به سوالات مربوط به سلامت، جعل ارجاعات به منابع معتبر و ارائه پاسخ ها با لحنی آمرانه بود. از هر چت بات سفارشی تولید شده، ۱۰ سوال در رابطه با سلامت، بصورت تکراری، در مورد مطالبی مانند ایمنی واکسن، اچ آی وی و افسردگی پرسیده شد. پژوهشگران متوجه شدند ۸۸ درصد پاسخ هایی که چت بات های سفارشی تولید کردند، اطلاعات جعلی بودند و پنج چت بات چت جی پی تی ۴o، جمینای ۱.۵ پرو، لاما ۳.۲ ۹۰B Vision و گروک بتا اخبار جعلی درپاسخ به سوالات آزمایشی فراهم کردند. چت بات کلاود۳.۵ سونت برخی خاصیت های ایمنی را به کار گرفت و فقط ۴۰ درصد پاسخ ها به سوالاتش حاوی اخبار جعلی بود.
منبع: mihost.ir
این مطلب را می پسندید؟
(0)
(0)
تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب