مطالب مرتبط:
5 + 1
یارانه ها
مسکن مهر
قیمت جهانی طلا
قیمت روز طلا و ارز
قیمت جهانی نفت
اخبار نرخ ارز
قیمت طلا
قیمت سکه
آب و هوا
بازار کار
افغانستان
تاجیکستان
استانها
ویدئو های ورزشی
طنز و کاریکاتور
بازار آتی سکه
سه شنبه، 14 آذر 1402 ساعت 12:352023-12-05فناوري

چت جی پی تی اطلاعات خصوصی را در تکرار کلمات افشا کرد!


پژوهشگران دریافته اند که ربات هوش مصنوعی گفتگوگر چت جی پی تی ChatGPT در صورت درخواست از آن برای تکرار کلمات، می تواند اطلاعات شخصی را افشا کند.

- پژوهشگران دریافته اند که ربات هوش مصنوعی گفتگوگر چت جی پی تی ChatGPT در صورت درخواست از آن برای تکرار کلمات، می تواند اطلاعات شخصی را افشا کند.

به گزارش سایت قطره و به نقل ازایسنا و به نقل از انگجت، گروهی از پژوهشگران به تازگی مقاله ای را منتشر کرده اند که نشان می دهد ChatGPT می تواند به طور ناخواسته قسمتی از داده ها از جمله شماره تلفن افراد، آدرس های ایمیل و تاریخ تولد را که با درخواست از آن برای تکرار همیشگی کلمات آموزش دیده بود، افشا کند.

ماجرا از این قرار است که کاربران به عنوان مثال از این چت بات می خواهند که یک کلمه مانند سلام را برای همیشه تکرار کند و گویا این ربات در خلال تکرار این کلمه اقدام به افشای اطلاعات شخصی کاربران می کند.

اکنون بر اساس گزارش ها، انجام این کار از این پس معادل نقض شرایط خدمات ChatGPT برشمرده می شود.

بدین ترتیب اگر اکنون از ChatGPT بخواهید که یک کلمه را برای همیشه تکرار کند، چنانچه در تصویر خبر مشاهده می کنید، ربات به شما پاسخ می دهد که این محتوا ممکن است خط مشی محتوا یا شرایط استفاده از ما را نقض کند.


برچسب ها:
آخرین اخبار سرویس:

چت جی پی تی اطلاعات خصوصی را در تکرار کلمات افشا کرد!

چت جی پی تی اطلاعات خصوصی را در تکرار کلمات افشا کرد!