یکشنبه 04 آبان 1404 - Sun 26 Oct 2025
  • پایان برجام و خواب‌های آشفته پسابرجامی!

  • میرزای نائینی معتقد به تشکیل «حکومت اسلامی» و مسئله «ولایت» بود /تعبیر امروزی جمهوری اسلامی همان حکومت مدنظر میرزای نائینی است +صوت وفیلم

  • بدون رفع تحریم‌ها ایران هیچ توافقی با آمریکا نمی‌کند

  • نمی‌توانید با این قصه‌ها مرا فریب دهید؛ وقتی نخست‌وزیر شدم، دیدم هیچ طرحی درباره ایران آماده نکرده بودید

  • جنگ روانی، سه ضلع از چهارضلع راهبرد ترامپ

  • پیام تسلیت به خانواده خادم الشهدا بهروز قدمی

  • آیا مذاکره بوداپست هم به سرنوشت آلاسکا دچار می‌شود؟

  • واکنش امام خامنه‌ای به ادعای ترامپ درباره صنعت هسته‌ای ایران: به همین خیال باش! +فیلم و صوت

  • نگرانی درباره احتمال دستیابی ایران به سلاح هسته‌ای، به طور کامل بر طرف نشده

  • آیا اژدهای پکن بر معامله‌گر نیویورکی چیره شده است؟

  • ‌پایان اقتدار شورای امنیت و آغاز عصر نظم نوین جهانی

  • از برجام تا برهوت؛ محصول نابلدی و بی‌دانشی

  • اگر یزید توانست شما هم می‌توانید

  • جاسـوس و جاسوسی از نگاه اسـلام

  • شرم‌الشیخ سوم روسیاهی پادوهای داخلی ترامپ

  • سخنان ترامپ درباره صلح با ایران، فریب است

  • آغاز عملیات آزادی اسرا در تل‌آویو و غزه/ بیانیه مهم گردان‌های قسام در باره توافق تبادل اسرا/ صلیب سرخ دومین گروه از اسرای اسرائیلی را تحویل گرفت/ اولین گروه اسرای فلسطینی وارد غزه شدند +عکس و فیلم

  • طرح ترامپ، اعتراف واضح به اقتدار مقاومت

  • ایران پس از شرم ‌الشیخ!

  • پروژه خطرناک جدید ظریف؛ خلع سلاح به نام «مردم»

  • |ف |
    | | | |
    کد خبر: 412176
    تاریخ انتشار: 03/آبان/1404 - 21:33

    چاپلوسی هوش مصنوعی تایید شد

    محققان برجسته‌ترین دانشگاه‌های آمریکا در یک مطالعه بزرگ تأیید کردند که چت‌بات‌های هوش مصنوعی به شدت چاپلوس هستند و اقدامات کاربران را ۵۰ درصد بیشتر از انسان‌ها تأیید می‌کنند.

    چاپلوسی هوش مصنوعی تایید شد

    به گزارش پایگاه خبری «حامیان ولایت» ، به نقل از باشگاه خبرنگاران جوان

    همه ما شواهدی داریم مبنی بر اینکه چت‌بات‌ها چاپلوسی ما را می‌کنند، اما اکنون علم هم آن را تأیید کرده است.

     
    به نقل از انگجت، محققان دانشگاه‌های استنفورد، هاروارد و سایر مؤسسات علمی به تازگی مطالعه‌ای در مورد ماهیت چاپلوسی چت‌بات‌های هوش مصنوعی در مجله Nature منتشر کرده‌اند و نتایج شاید کسی را متعجب نکند. خلاصه اینکه این ربات‌های گفت‌وگوگر، عاشق تایید ما و صحه‌گذاری بر هر چیزی هستند که ما می‌گوییم.
     
    محققان توصیه‌های ارائه شده توسط چت‌بات‌ها را بررسی و کشف کردند که تمایل آنها به چاپلوسی، گسترده‌تر از حد انتظار است. این مطالعه شامل ۱۱ چت‌بات از جمله نسخه‌های اخیر ChatGPT، Gemini، Claude و Llama بود.
     
    نتایج نشان می‌دهد که چت‌بات‌ها ۵۰ درصد بیشتر از انسان، رفتار انسان را تأیید می‌کنند.
     
    آنها چندین نوع آزمایش را با گروه‌های مختلف انجام دادند. یکی از آنها پاسخ‌های چت‌بات‌ها به پست‌های موجود در موضوع «آیا من احمق هستم» را با پاسخ‌های انسانی مقایسه کرد. این یک زیرگروه در ردیت (Reddit) است که در آن افراد از جامعه می‌خواهند رفتار آنها را قضاوت کنند و کاربران ردیت در این مورد بسیار سخت‌گیرتر از چت‌بات‌ها بودند.
     
    یکی از کاربران در مورد بستن یک کیسه زباله به شاخه درخت به جای دور انداختن آن پرسید که ChatGPT در پاسخ به آن اعلام کرد که «قصد فرد برای نظافت، قابل تحسین است». طبق گزارش گاردین، این مطالعه در ادامه نشان داد که چت‌بات‌ها حتی زمانی که کاربران «غیرمسئولانه، فریبکارانه یا به خودآزاری اشاره می‌کردند» نیز به اعتباربخشی به آنها ادامه می‌دادند.
     
    در آزمایشی دیگر، ۱۰۰۰ شرکت‌کننده در مورد سناریو‌های واقعی یا فرضی با چت‌بات‌های عمومی صحبت کردند، اما برخی از آنها برای کاهش شدت تعریف و تمجید برنامه‌ریزی مجدد شده بودند. کسانی که پاسخ‌های چاپلوسانه دریافت می‌کردند، هنگام بروز مشاجرات، تمایل کمتری به اصلاح اوضاع داشتند و حتی زمانی که هنجار‌های اجتماعی را نقض می‌کردند، احساس می‌کردند که رفتارشان موجه‌تر است. همچنین شایان ذکر است که چت‌بات‌های سنتی به ندرت کاربران را تشویق می‌کردند که مسائل را از دیدگاه شخص دیگری ببینند.
     
    دکتر الکساندر لافر (Alexander Laffer) که در دانشگاه وینچستر در مورد فناوری‌های نوظهور مطالعه می‌کند، گفت: این پاسخ‌های چاپلوسانه ممکن است نه تنها افراد آسیب‌پذیر، بلکه همه کاربران را تحت تأثیر قرار دهد و بر جدیت بالقوه این مشکل تأکید می‌کند. همچنین توسعه‌دهندگان مسئولیت دارند که این سیستم‌ها را اصلاح کنند تا واقعاً برای کاربر مفید باشند.
     
    این موضوع به دلیل تعداد زیاد افرادی که از این چت‌بات‌ها استفاده می‌کنند، جدی است. گزارش اخیر مؤسسه بنتون (Benton) نشان می‌دهد که ۳۰ درصد از نوجوانان برای «گفت‌و‌گو‌های جدی» به جای انسان‌های واقعی با هوش مصنوعی صحبت می‌کنند.
     
    شرکت اوپن‌ای‌آی (OpenAI) در حال حاضر درگیر یک دعوای حقوقی است که چت‌بات آن را به فراهم کردن امکان خودکشی یک نوجوان متهم می‌کند. شرکت کاراکتر‌ای‌آی (Character AI) نیز پس از گزارش دو مورد خودکشی نوجوانان که در آن نوجوانان ماه‌ها به چت‌بات‌های آن اعتماد کرده بودند، دو بار مورد شکایت قرار گرفته است.

    نظرات بینندگان
    نظرات شما