پنجشنبه 26 تير 1404 - Thu 17 Jul 2025
بنر پویش نه به تصادف برای استفاده پایگاه‌های خبری
  • ترامپ قلدری باج‌گیر است که حتی در مذاکره باید با اسلحه سراغش رفت

  • ایران نه‌تنها از آمریکا نمی‌ترسد بلکه آن را می‌ترساند/خداوند نصرت ملت ایران را تضمین کرده است+عکس و فیلم

  • روایت شهید حاجی زاده از مسیر پیشرفت در صنعت موشکی ایران/ رهبر انقلاب یک روند چند ساله جلوی چشمشان هست +فیلم

  • دسته‌گل‌های شما یکی دو تا نیست جناب ظریف!

  • بیانیه است یا دیکته اسرائیل و آمریکا؟!

  • موشک‌های ایران باعث شد اسرائیل درخواست آتش‌بس دهد+فیلم

  • مکانیسم ماشه کاغذ پاره است فریب نخورید!

  • چشم‌انداز فروپاشی اسرائیل از نگاه کارشناس پیشین بانک جهانی +عکس

  • انسجام آری؛ تسلیم خیر؛ استحاله هم هرگز!

  • خورشید در میانه آن شب طلوع کرد

  • مراسم عزاداری شب عاشورای حسینی (ع) در حسینیه امام خمینی با حضور رهبر انقلاب + فیلم

  • تمجید خاص یک رئیس جمهور خارجی از رهبر انقلاب

  • مدیریت یک جنگ فقط با ۳ پیام

  • وعده صادق رهبر انقلاب شوک بزرگ به «ترامپ» و «نتانیاهو» بود

  • معمای برآشفتگی نتانیاهو و ترامپ

  • تهدیدکننده رهبری و مرجعیت حکم محارب دارد +سند

  • تشییع باشکوه شهدای اقتدار ایران؛ نماد وحدت و استکبارستیزی ملت/ حضور رئیس‌جمهور در جمع حاضرین مراسم +عکس و فیلم

  • از دکترین تا راهبُرد نظامی آیت‌الله خامنه‌ای در جنگ ۱۲ روزه

  • ملت بزرگ ایران سطح جدیدی از جنگ‌های جهان را تجربه کرد/ رژیم اسرائیل با هدف نابودی دانش به فناوری کشور حمله کرد

  • به ملت ایران تبریک عرض میکنم/ رژیم صهیونی زیر ضربات جمهوری اسلامی تقریباً از پا درآمد و لِه شد

  • بنر پویش نه به تصادف برای استفاده پایگاه‌های خبری
    |ف |
    | | | |
    کد خبر: 405278
    تاریخ انتشار: 26/تير/1404 - 11:44

    تاثیرات چند وجهی مخرب اخبارجعلی برجامعه و هوش مصنوعی

    اخبار جعلی، به‌ویژه با توانمندسازی هوش مصنوعی، تأثیرات عمیق و چندوجهی بر جامعه و خود فناوری هوش مصنوعی دارد.

    تاثیرات چند وجهی مخرب اخبارجعلی برجامعه و هوش مصنوعی

    به گزارش پایگاه خبری «حامیان ولایت» ، به نقل از سراج 24 ،

    امروزه فعالان فضای مجازی و مدرسان سواد رسانه به تحقیق در زمینه “اخبار جعلی “و “هوش مصنوعی “باید بسیار هوشیار و  یک پزوهشگر واقعی باشند. چراکه اخبار جعلی، به‌ویژه با توانمندسازی هوش مصنوعی، تأثیرات عمیق و چندوجهی بر جامعه و خود فناوری هوش مصنوعی دارد. به نظرم این تأثیرات را می‌توان در دو محور اصلی “تأثیرات مخرب بر جامعه”و “تعامل پیچیده با هوش مصنوعی” (هم به‌عنوان راه‌حل و هم بخشی از مشکل) بررسی کرد:

    ۱٫ تأثیرات مخرب اخبار جعلی بر جامعه

    الف. تهدید دموکراسی و امنیت ملی:
    – تحریف افکار عمومی: اخبار جعلی در رویدادهایی مانند برگزیت و انتخابات آمریکا جهت‌دهی به افکار عمومی را نشان داده‌اند . با ظهور جعل‌های عمیق(Deepfakes)، ساخت ویدئوهای جعلی از سیاستمداران برای بیان سخنان نژادپرستانه یا خشونت‌آمیز، اعتماد به نهادهای دموکراتیک را تضعیف می‌کند .
    – جنگ شناختی: در بحران‌هایی مانند زلزله میانمار، ویدئوهای جعلی ایجادشده با هوش مصنوعی، واکنش‌های امدادی را مختل و امنیت ملی را تهدید می‌کند .

     ب. تخریب سلامت روان و اجتماعی :
    – سرقت هویت و پورنوگرافی انتقامجویانه : بیش از ۸۰% محتوای جعلی در فضای مجازی مربوط به جعل چهره زنان در محتوای غیراخلاقی است که آسیب‌های روانی ماندگاری ایجاد می‌کند .
    – ی‌علاقگی به واقعیت (Reality Apathy): مواجهه مداوم با اخبار جعلی منجر به بی‌اعتمادی عمومی به همه منابع اطلاعاتی و فروپاشی گفت‌وگوی اجتماعیمی‌شود .

     ج. اختلال در اقتصاد و سلامت عمومی:
    – نوسانات بازارهای مالی: انتشار اخبار جعلی درباره شرکت‌ها باعث نوسان شدید قیمت سهام و بی‌ثباتی اقتصادی می‌شود .
    – تضعیف سیستم سلامت: اطلاعات نادرست درباره واکسن‌ها (مانند استعفای مقام سازمان غذا و داروی آمریکا) منجر به کاهش اثربخشی برنامه‌های سلامت عمومی می‌گردد .

    ۲٫ تعامل اخبار جعلی و هوش مصنوعی: چالش‌ها و راه‌حل‌ها

    الف. هوش مصنوعی به‌عنوان  بخشی از مشکل:
    – تولید انبوه محتوای جعلی : هوش مصنوعی ساخت محتوای متنی، صوتی و تصویری فریبنده را دموکراتیک کرده است. به‌طور مثال، ابزارهایی مانند Deepfakes ایجاد ویدئوهای جعلی را برای افراد عادی ممکن ساخته‌اند .
    – پیچیدگی تشخیص : جعل‌های عمیق با قابلیت هماهنگی صدا و تصویر (Lip-synced) حتی متخصصان را نیز گمراه می‌کنند .

     ب. هوش مصنوعی به‌عنوان بخشی از راه‌حل:
    – شناسایی الگوهای پنهان : مدل‌های یادگیری ماشین مانند جنگل تصادفی(Random Forest) با دقت ۹۸٫۳٪ اخبار جعلی را از طریق تحلیل سبک نگارش، تناقض‌های محتوایی و اعتبارسنجی منابع تشخیص می‌دهند .
    – راستی‌آزمایی دیجیتال: سامانه‌هایی مانند “AI4TRUST” در اروپا با تحلیل چندزبانه‌ی محتوا و رصد شبکه‌های اجتماعی، هشدارهای لحظه‌ای صادر می‌کنند .
    – کاربرد در حوزه فارسی : پروژه‌هایی مانند “تاجتل”با مجموعه‌داده‌های فارسی و مدل‌های شبکه عصبی پیچشی (CNN) به دقت ۹۰٫۴۶٪ در شناسایی اخبار جعلی در تلگرام رسیده‌اند .

    ج. چالش‌های فناورانه:
    – تطابق پذیری اخبار جعلی : الگوریتم‌های فعلی ممکن است در تشخیص اخبار جعلی آینده (مانند جعل‌های عمیق پیشرفته) ناتوان باشند .
    – رمزگذاری پیام‌ها : استفاده از پیام‌رسان‌های رمزگذاری‌شده (مانند واتس‌اپ) ردیابی اخبار جعلی را دشوار می‌کند .

    ۳٫ راهکارهای کلان برای مقابله 

    الف. راهکارهای فناورانه:
    -سامانه‌های بومی هوش مصنوعی : توسعه سامانه‌های راستی‌آزمایی با قابلیت پردازش زبان‌های فارسی، عربی و انگلیسی برای کشورهایی مانند ایران یک ضرورت “راهبردی ” است .
    – دغام تحلیل انسانی و ماشینی : پروژه‌هایی مانند “Full Fact” در بریتانیا نشان می‌دهند ترکیب هوش مصنوعی با تحلیل انسانی دقت را افزایش می‌دهد .

     ب. راهکارهای اجتماعی و حکمرانی :
    – سواد رسانه‌ای و AI Literacy آموزش شهروندان در تفکیک منابع معتبر از نامعتبر، به‌ویژه برای نسل جوان .
    – قوانین سخت‌گیرانه : ایجاد نهادهای حاکمیتی جهانی (تحت نظارت سازمان ملل) برای تنظیم‌گری اخلاقی هوش مصنوعی و الزام توسعه‌دهندگان به رعایت سوگندنامه‌های اخلاقی(مانند دوره‌های اخلاق هاروارد و MIT) .
    – حمایت از روزنامه‌نگاری تحقیقی : استفاده از هوش مصنوعی برای ردیابی شبکه‌های سازمان‌یافته انتشار اخبار جعلی و افشای انگیزه‌های پشت‌پرده .

    ج. چارچوب‌های سیاستی :
    – حکمرانی داده‌محور : تدوین سیاست‌هایی برای تضمین شفافیت الگوریتم‌ها و جلوگیری از سوگیری‌های نژادی یا ایدئولوژیک .
    – همکاری جهانی : مقابله با اخبار جعلی نیازمند همکاری بین‌المللی شبیه ویکی‌پدیااست تا دانش جمعی برای شناسایی جعل‌ها بسیج شود .

     نتیجه‌گیری
    اخبار جعلی در عصر هوش مصنوعی به یک تهدید چندبعدی تبدیل شده است: از تخریب اعتماد اجتماعی تا تهدید امنیت ملی. هوش مصنوعی در این میدان هم سلاح است هم”سپر” آینده این نبرد به توسعه فناوری‌های تشخیص پیشرفته، سرمایه‌گذاری در سواد رسانه‌ای، و تدوین چارچوب‌های حکمرانیِ مبتنی بر اخلاق وابسته است. همان‌طور که مارک ون رایمنام هشدار می‌دهد: «اگر به مشکلات هوش مصنوعی توجه نشود، مقابله با آن در آینده ناممکن خواهد شد» .

    نویسنده: فاطمه حیدری - مدرس سواد رسانه

    نظرات بینندگان
    نظرات شما