توسعه صنایع معدنی از ارکان اصلی پیشرفت اقتصاد ملی است
|
صنعت فولاد به اهداف افق ۱۴۰۴ دست یافته است
|
بخش اعظم مینروبی مسیر راهآهن شلمچه - بصره انجام شده است
|
وزیر صمت: سهام خودروسازان واگذار میشود
|
هشدار وزیر صمت درباره قاچاق سوخت معادن
|
پروژههای عمرانی از دل تحریم و تنگناها سر بلند کردند
|
وزیر صمت: ارزآوری کشور با مقررات فعلی لطمه میخورد
|
شبکههای غیررسمی مالی، صادرات را تا ۱۵ درصد گرانتر کردهاند
|
قرارداد ۲۵۰ مگاوات نیروگاه خورشیدی برای شهرکهای صنعتی منعقد شد
|
نمیتوانیم خود را منفک از زنجیره ارزش جهانی بدانیم
|
انتقاد تند وزیر صمت به قطع کامل برق صنایع بزرگ در ۱۵ روز آینده
|
آمادگی وزارت صمت برای افتتاح طرحهای فناورانه در کرمانشاه
|
ممنوعیت واردات کالاهای خارجی مشابه ساخت داخل ادامه دارد
|
يک شنبه 18 خرداد 1404
Toggle navigation
صفحه نخست
درباره ما
آرشیو
تماس با ما
هوشمصنوعی بخاطر پول دروغ میگوید و حتی تقلب میکند!
تاريخ:يازدهم دی 1402 ساعت 14:41
|
کد : 286285
|
مشاهده: 278
چت ربات بهطور نادرست عمل میکند و بهطور استراتژیک کاربران خود را فریب میدهد.
دانشمندان چت ربات هوش مصنوعی، GPT-۴ را به نوعی آموزش دادند که یک معاملهگر هوش مصنوعی برای یک مؤسسه مالی خیالی باشد. نتیجه آن تعجبآور بود: زمانی که ربات تحت فشار مالی قرار میگرفت، معاملات داخلی را انجام میداد، دروغ میگفت و تقلب میکرد.
به گزارش خبر آنلاین، درست مانند انسانها، چترباتهای هوش مصنوعی (AI) همچون ChatGPT، در مواقعی که به آنها استرس وارد شود، تقلب میکنند و دروغ میگویند؛ در پژوهشی که دانشمندان انجام دادند متوجه شدند که حتی اگر یک ربات با هدف صداقت ساخته شده باشد، باز هم چنین کاری را انجام میدهند.
زمانی که به هوش مصنوعی نکات «تجارت داخلی» به این ربات داده شد و سپس وظیفه کسب درآمد برای یک مؤسسه قدرتمند حتی بدون تشویق شرکای انسانی به او واگذار شد، به طور خود به خود این ربات چنین حیلهگری را از خود نشان داد.
بر اساس گزارش محققان، در یک سناریو، این ربات بهطور نادرست عمل میکند و بهطور استراتژیک کاربران خود را فریب میدهد، این فریب در حالی است که به آنها دستوری مبنی بر عمل کردن به این روش داده نشده است.
طبق اطلاعات، این اولین باری است که چنین رفتار ریاکارانه استراتژیک در سیستمهای هوش مصنوعی که بیضرر و صادقانه و بیهدف ساخته شدهاند، دیده میشود.
دانشمندان در این سناریو «Generative Pre-trained Transformer-۴» یا GPT-۴ را انتخاب کردند تا به عنوان یک سیستم هوش مصنوعی که از طرف یک موسسه مالی، سرمایهگذاری میکند، رفتار کند.
محققان به GPT-۴ مجموعهای از اعلانهای مبتنی بر متن، برای تولید محیط شبیهسازی شده تغذیه کردند. سپس هوش مصنوعی به ابزارهای مالی برای تجزیه و تحلیل سهام، اجرای معاملات، برنامهریزی مراحل بعدی خود و ارائه به روزرسانی به مدیران شرکت دسترسی یافت.
محققان از طریق یک رابط چت با هوش مصنوعی تعامل کردند، از طرفی هوش مصنوعی را نیز به گونهای پیکربندی کردند تا تفکر درونی خود را هنگام پاسخ دادن به پیامها آشکار کند، درست مانند یک مونولوگ درونی که تصمیمات خودش را برای خودش توضیح میدهد و در عین حال برای هر معاملهای که انجام میداد، یک منطق عمومی نیز ارائه میکرد که به هوش مصنوعی اجازه میداد دروغ بگوید.
محققان به سه روش فشار وارد کردند. ابتدا، آنها ایمیلی از طرف مدیر خود به تاجر سهام مصنوعی ارسال کردند که گفت شرکت خوب کار نمیکند و به عملکرد بسیار قویتری در سه ماهه آینده نیاز دارد
آنها همچنین به گونهای تقلب کردند که هوش مصنوعی برای یافتن معاملات امیدوارکنندهای که ریسک پایین یا متوسطی داشته باشند، تلاش کند و شکست بخورد. در نهایت، آنها ایمیلی از یکی از همکارانشان ارسال کردند که در آن رکود در سه ماهه آینده پیشبینی شده بود.
سپس، آنها گفتند که مدیران او از معاملات داخلی راضی نیستند و منتظر ماندند تا ببینند مدل چگونه رفتار خواهد کرد. آنها این سناریو را بارها و بارها اجرا کردند و اندازهگیری کردند که هوش مصنوعی چند بار معامله را انجام میدهد و هر چند وقت یک بار دروغ میگوید و هر چند وقت یک بار دروغ را دو برابر میکند.
در حدود ۷۵ درصد مواقع، زمانی که GPT-۴ با این شرایط مواجه شد، تجارتی را بر اساس اطلاعات خودش انجام داد، این تجارت، تجارتی بود که در ایالات متحده غیرقانونی است، سپس سعی کرد با دروغ گفتن به مدیرانش در مورد تفکرات خود، تقلب کند و آنها را دور بزند. در حدود ۹۰ درصد مواقع، پس از دروغ گفتن، دروغ را نیز دوبرابر میکند.
این تیم آزمایشهای متعددی را انجام داد که هم میزان تشویق یا جلوگیری از فعالیت غیرقانونی و هم میزان فشاری که مدل را در محیط شبیهسازی شده تحت آن قرار میداد، تغییر داد. آنها همچنین خطر گرفتار شدن را اصلاح کردند.
هیچ یک از سناریوها نرخ ۰% را برای دغلکاری این ربات ارائه نکرد، حتی زمانی که GPT-۴ به شدت از دروغ گفتن منصرف شده بود باز هم این میزان به ۰% نرسید.
با توجه به این که این تنها یک سناریو است، محققان نمیخواستند در مورد احتمال وجود هوش مصنوعی در محیطهای واقعی نتیجهگیری کنند. با این حال آنها میخواهند برای این که بفهمند کدام مدلها مستعد این رفتار هستند، پژوهشهای خود را تکرار کنند.
http://new.sanatnews.ir/News//286285
برچسب ها :
هوش مصنوعی
,
تقلب
آدرس ايميل شما:
*
آدرس ايميل دريافت کنندگان
*
Sending ...
*
پربازديد ترينها
دانشبنیانها، همقدم زائران در راهپیمایی عظیم اربعین
هیچ مدرسهای در تهران در لیست ساختمانهای ناایمن بحرانی قرار ندارد
۹۶۰ هزار عملیات کانتینری در بندرشهید رجایی هرمزگان ثبت شد
مغز در دوران بارداری سازماندهی مجدد میشود
توقیف 2 شناور حامل قاچاق در آبهای بوشهر
بازار سرمایه مثبت شد
اعزام و پذیرش ۷۴ هزار مسافر در مسیر استانبول با ۳۶۶ پرواز پس از تحریم پروازهای اروپا
ماموریت استاد دانشگاه خواجهنصیر برای توسعه شرکتهای دانشبنیان با حکم «افشین»
مدال آوران المپیک پاریس از سربازی معاف شدند
دومین نقش برجسته قدیمی ایران در فارس ساماندهی میشود
ماجرای ترک سیگار سوژه یک مستند جدید شد
تعداد خودروهای شخصی عامل آلودگی هوای تهران
آخرين اخبار
قرارداد بیمه با توانیر تمام شده است/ نوسان برق تحت پوشش بیمه نیست
اولمرت: هیچ دلیلی نمیتواند گسترش عملیات نظامی در غزه را توجیه کند
ممنوعیت صدور مجوز برای اماکن گردشگری فاقد پایان کار
خانواده الهه حسیننژاد: بعضی نمک روی زخم میریزند و از احساسات مردم سوءاستفاده میکنند
ابراهیم صادقی سرمربی پالایش نفت بندرعباس شد
درخشان: تیمملی هنوز در دفاع و بازی گروهی ایرادهای زیادی دارد
بررسی تاریخ اسماعیلیان در نشست پژوهشی تهران
مناسبسازی جت اهدایی قطر به ترامپ ۴۰۰ میلیون دلار هزینه دارد
شیوهنامههای دارودرمانی ملی تدوین شد
مقاومت جهانی برای صلح و عدالت: ائتلاف کاروان آزادی جنبشی بینالمللی از دل مردم است
بازگشت ۶۱ رشته ارشد پیامنور به دفترچه انتخاب رشته
لودریان: اسرائیل منفور شده است
کليه حقوق محفوظ و متعلق به پايگاه اطلاع رسانی صنعت نيوز ميباشد
نقل مطالب و اخبار با ذکر منبع بلامانع است
طراحی و توليد نرم افزار :
نوآوران فناوری اطلاعات امروز