دوشنبه 20 مرداد 1404 - Mon 11 Aug 2025
بنر پویش نه به تصادف برای استفاده پایگاه‌های خبری
  • آیا کریدور جعلی زنگزور راه‌حل نظامی دارد؟

  • قدرتی برای تضعیف سلاح مقاومت وجود ندارد

  • مذاکرات وارونه

  • تفسیر مخدوش از مصوبه مجلس درباره آژانس!

  • نتیجه همکاری با آژانس حمله به تأسیسات هسته‌ای‌مان بود

  • هشدار! از خواب غفلت برخیزید!

  • خطای محاسباتی درباره براندازی موجب تقویت داخلی ایران شد

  • حزب‌الله لبنان آماده شده است

  • این غزه است که اسرائیل را از نقشه جهان حذف می‌کند

  • افزایش احتمال تغییرات قریب‌الوقوع در برخی نهادهای عالی امنیتی

  • مراسم بزرگداشت شهدای جنگ تحمیلی ۱۲ روزه

  • پیام تسلیت به جناب سرهنگ شعبانپور

  • گلچین مداحی شهادت حضرت رقیه(س)

  • قالیباف صدای مظلومیت ایران در قلب ژنو فریاد زد

  • خروج هیئت‌های فلسطین، ایران و یمن از اجلاس بین‌المجالس به هنگام سخنرانی رئیس کنست اسرائیل

  • چرا اصرار بر یک باور در دولتمردان خصوصا وزارت خارجه پر‌رنگ است؟

  • پرده‌برداری رهبر انقلاب از لایه تمدنی جنگ ۱۲ روزه

  • هسته‌ای و حقوق بشر بهانه است آمریکا از توانایی‌های جمهوری اسلامی ناراحت است +صوت و فیلم

  • لایحه مقابله با نشر اکاذیب خلع سلاح جریان تحریف

  • دفاع پیش‌دستانه مشروع ایران: ضرورتی امنیتی در برابر تهدیدات مستمر

  • بنر پویش نه به تصادف برای استفاده پایگاه‌های خبری
    |ف |
    | | | |
    کد خبر: 407049
    تاریخ انتشار: 19/مرداد/1404 - 21:59

    هوش مصنوعی دروغ را راست جلوه می‌دهد

    پژوهشگران طی یک مطالعه جدید متوجه شدند که هوش مصنوعی فقط دروغ نمی‌گوید، بلکه می‌تواند کاربر را به باور آن وادار کند.

    هوش مصنوعی دروغ را راست جلوه می‌دهد

    به گزارش پایگاه خبری «حامیان ولایت» ،

     یکی از ظریف‌ترین و موذیانه‌ترین تهدیدات ناشی از هوش مصنوعی و فناوری‌های مرتبط، توانایی آن در دستکاری خاطرات است. مطالعات جدید نشان می‌دهد که هوش مصنوعی با چه سهولتی می‌تواند مردم را فریب دهد تا چیزهایی را به خاطر بیاورند که هرگز اتفاق نیفتاده‌اند.
     
    به نقل از بلومبرگ، «الیزابت لافتوس»(Elizabeth Loftus) روانشناس و استاد دانشگاه کالیفرنیا، ۵۰ سال گذشته را صرف اثبات این موضوع کرده است که انسان‌ها چقدر راحت می‌توانند فریب داده شوند تا چیزهایی را به خاطر بیاورند که هرگز اتفاق نیفتاده‌اند. این اتفاق در بین دادستان‌ها و پلیس‌هایی که از شاهدان بازجویی می‌کنند بسیار رایج است.
     
    اکنون «لافتوس» با دانشمندان «موسسه فناوری ماساچوست»(MIT) همکاری کرده است تا بررسی کنند که هوش مصنوعی چگونه می‌تواند آنچه را که فکر می‌کنیم به خاطر می‌آوریم، دستکاری کند. این دستکاری حتی زمانی رخ می‌دهد که سوژه‌ها می‌دانند در حال مشاهده متن و تصاویر تولید شده توسط هوش مصنوعی هستند.
     
    یافته‌ها نشان می‌دهد که هوش مصنوعی می‌تواند توانایی انسان‌ها را برای کاشت خاطرات دروغین افزایش دهد.
     
    «لافتوس» نشان داد که در یک سری از آزمایش‌های معروف که از دهه ۱۹۷۰ آغاز شد، روانشناسان با پیشنهادهای مناسب می‌توانند خاطراتی را در ذهن افراد بکارند که در کودکی در یک مرکز خرید گم شده بودند یا اینکه در یک پیک‌نیک از خوردن تخم مرغ یا بستنی توت فرنگی بیمار شده بودند. مورد آخر در واقع مردم را از تمایل به آن غذاها منصرف می‌کرد. با وجود این شواهد، ما هنوز نمی‌توانیم این ایده را که حافظه مانند یک ضبط صوت از رویدادهاست، کنار بگذاریم و این درک نادرست از ذهن، ما را آسیب‌پذیر می‌کند.
     
    «لافتوس» گفت: افرادی که به این مدل ضبط صوت از حافظه پایبند هستند، به نظر نمی‌رسد متوجه باشند که حافظه یک فرآیند ساختاری است. مغز ما خاطرات را از تکه‌هایی که در زمان‌های مختلف به دست می‌آید، می‌سازد. ما به طور شهودی فراموشی را از دست دادن یا محو شدن خاطرات درک می‌کنیم نه افزودن جزئیات دروغین. در نظر گرفتن اینکه هوش مصنوعی چقدر مؤثر می‌تواند این نوع فریب را در مقیاس وسیع انجام دهد، ترسناک است.
     
    وی همچنین در حال مطالعه پتانسیل مبهم نظرسنجی‌های دستکاری شده بوده است، جایی که طراحان نظرسنجی، اطلاعات نادرست را در یک سؤال جای می‌دهند.
     
    «پت پاتارانوتاپرن»(Pat Pataranutaporn) دانشمند آزمایشگاه رسانه «MIT» خاطرنشان می‌کند: دستکاری حافظه، فرآیند بسیار متفاوتی با فریب دادن مردم با «جعل عمیق»(deep-fake) است. نیازی به ایجاد یک جعل پیچیده نیست، فقط باید مردم را متقاعد کنید که قبلاً چیزی را در آنجا خوانده‌اند. مردم معمولاً حافظه خود را زیر سؤال نمی‌برند.
     
    «جعل عمیق» یا «دیپ فیک»، ترکیبی از کلمه‌های «یادگیری عمیق» و «جعلی» است که یک تکنیک برای ترکیب تصویر انسان مبتنی بر هوش مصنوعی است.
     
    پاتارانوتاپرن نویسنده ارشد سه آزمایش حافظه بود که اولین آنها نشان داد چگونه بازجویان هوش مصنوعی می‌توانند شهادت شاهد را تنها با جای دادن پیشنهادها در سؤالات خود تغییر دهند. شرکت‌کنندگان، ویدئویی از یک سرقت مسلحانه را تماشا کردند. سپس از برخی از آنها سؤالات گمراه‌کننده پرسیده شد، مانند اینکه «آیا دوربین امنیتی در نزدیکی محلی که سارقان خودرو را پارک کردند، وجود داشت؟» و حدود یک سوم از شرکت‌کنندگان بعداً به یاد آوردند که سارقان با خودرو آمده‌ بودند، اما حقیقت آن بود که اصلا خودرویی وجود نداشت. این حافظه کاذب حتی یک هفته بعد هم باقی ماند.
     
    سوژه‌ها به سه گروه تقسیم شدند. یک گروه هیچ سؤال گمراه‌کننده‌ای دریافت نکردند، گروه دیگر آنها را به صورت کتبی دریافت کردند و گروه سوم آنها را از یک ربات چت هوش مصنوعی دریافت کردند. گروه ربات چت ۱/۷ برابر بیشتر از کسانی که اطلاعات گمراه‌کننده را به صورت کتبی دریافت کردند، خاطرات کاذب تشکیل دادند.
     
    مطالعه دیگری نشان داد که خلاصه‌های هوش مصنوعی ناصادق یا ربات‌های چت می‌توانند به راحتی خاطرات کاذب را در داستانی که مردم می‌خوانند، وارد کنند. «پاتارانوتاپرن» گفت: آنچه نگران‌کننده‌تر است، این بود که شرکت‌کنندگانی که خلاصه‌های هوش مصنوعی گمراه‌کننده دریافت کردند، اطلاعات واقعی کمتری را از خواندن خود حفظ کردند و اعتماد کمتری به اطلاعات واقعی که به یاد آوردند، گزارش کردند.
     
    مطالعه سوم نشان داد که هوش مصنوعی چگونه می‌تواند با استفاده از تصاویر و ویدئو، خاطرات کاذب را در ذهن بکارد. محققان ۲۰۰ داوطلب را به چهار گروه تقسیم کردند. شرکت‌کنندگان در هر گروه مجموعه‌ای از ۲۴ تصویر را مشاهده کردند. برخی تصاویر معمولی بودند که در وب‌سایت‌های خبری یافت می‌شدند، در حالی که برخی دیگر شخصی بودند، مانند عکس‌های عروسی که ممکن است کسی در رسانه‌های اجتماعی پست کند.
     
    به هر گروه نسخه متفاوتی از تصاویر نشان داده شد. یک گروه تصاویر یکسان و بدون تغییر را مشاهده کردند. گروه دوم نسخه‌های تغییر یافته هوش مصنوعی را مشاهده کردند. گروه سوم تصاویر تغییر یافته هوش مصنوعی را که به ویدئوهای کوتاه تبدیل شده بود، مشاهده کردند. گروه نهایی تصاویر کاملاً تولید شده توسط هوش مصنوعی را مشاهده کردند که به ویدئوهای تولید شده توسط هوش مصنوعی تبدیل شده بودند.
     
    حتی گروهی که تصاویر اصلی را دیدند، چند خاطره کاذب را به یاد آوردند، اما شرکت‌کنندگانی که در معرض هر سطحی از دستکاری هوش مصنوعی قرار گرفتند، به طور قابل توجهی خاطرات کاذب بیشتری را گزارش کردند. گروهی که بالاترین نرخ تحریف حافظه را داشت، گروهی بود که ویدئوهای تولید شده توسط هوش مصنوعی را مشاهده کرده بودند.
     
    افراد جوان‌تر کمی بیشتر از افراد مسن‌تر مستعد گنجاندن خاطرات کاذب بودند و سطح تحصیلات به نظر نمی‌رسید بر آسیب‌پذیری تأثیر بگذارد. قابل توجه است که خاطرات کاذب به فریب دادن شرکت‌کنندگان که محتوای تولید شده توسط هوش مصنوعی واقعی است، متکی نبود و به آنها از ابتدا گفته شده بود که محتوای تولید شده توسط هوش مصنوعی را مشاهده خواهند کرد.
     
    برخی از تغییرات شامل تغییراتی در پس‌زمینه بود. تصاویر بیشتر ویژگی‌های اصلی را حفظ کردند. طبق گفته کارشناسان اطلاعات نادرست برای داشتن تأثیر واقعی، باید داستانی را دربرگیرد که حداقل ۶۰ درصد آن درست باشد. این مطالعات جدید باید بحث‌های بیشتری را در مورد تأثیرات فناوری بر درک ما از واقعیت تحریک کند که می‌تواند فراتر از صرف انتشار اطلاعات نادرست باشد. الگوریتم‌های رسانه‌های اجتماعی نیز با ایجاد تصور غلط از محبوبیت و نفوذ، مردم را تشویق می‌کنند تا ایده‌های حاشیه‌ای و نظریه‌های توطئه را بپذیرند. ربات‌های چت هوش مصنوعی تأثیرات ظریف‌تر و غیرمنتظره‌ای بر ما خواهند داشت. همه ما باید برای تغییر عقیده‌مان با حقایق جدید و استدلال قوی آماده باشیم و نسبت به تلاش‌ها برای تغییر عقیده‌مان با تحریف آنچه می‌بینیم یا احساس می‌کنیم یا به یاد می‌آوریم، محتاط باشیم.

    مرتبط ها
    نظرات بینندگان
    نظرات شما