مجله خبری سهندپرس
۲۸
اردیبهشت ۱۴۰۴
  • صفحه نخست
  • اجتماعی
  • فرهنگی
  • بین الملل
  • ورزشی
  • اقتصادی
  • پزشکی
  • اخبار
  • درباره ما
  • بلاگ
محافظت از ما در برابر مضرات اخبار جعلی

چقدر به تشخیص دقیق اخبار جعلی توسط هوش مصنوعی نزدیک هستیم؟

در تلاش بلندپروازانه برای مقابله با مضرات محتوای نادرست در رسانه‌های اجتماعی و وب‌سایت‌های خبری، دانشمندان داده خلاقیت به خرج می‌دهند. مدل‌های بزرگ زبانی (LLM) که برای ایجاد چت‌بات‌هایی مانند ChatGPT استفاده می‌شوند، اگرچه هنوز در مراحل اولیه هستند، اما برای تشخیص اخبار جعلی هم استفاده می‌شوند. با تشخیص بهتر، سیستم‌های بررسی اخبار جعلی مبتنی […]

آبان 26, 1403 5 دقیقه خواندن
چاپ خبر

در تلاش بلندپروازانه برای مقابله با مضرات محتوای نادرست در رسانه‌های اجتماعی و وب‌سایت‌های خبری، دانشمندان داده خلاقیت به خرج می‌دهند.

مدل‌های بزرگ زبانی (LLM) که برای ایجاد چت‌بات‌هایی مانند ChatGPT استفاده می‌شوند، اگرچه هنوز در مراحل اولیه هستند، اما برای تشخیص اخبار جعلی هم استفاده می‌شوند. با تشخیص بهتر، سیستم‌های بررسی اخبار جعلی مبتنی بر هوش مصنوعی ممکن است بتوانند به هشدار دادن و در نهایت مقابله با مضرات جدی ناشی از دیپ‌فیک، تبلیغات، نظریه‌های توطئه و اطلاعات نادرست کمک کنند.

ابزارهای هوش مصنوعی سطح بعدی، تشخیص محتوای نادرست را شخصی‌سازی کرده و از ما در برابر آن محافظت خواهند کرد. برای این جهش نهایی به سمت هوش مصنوعی کاربر محور، علوم داده باید به رفتارشناسی و علوم اعصاب روی آورد.

تحقیقات اخیر نشان می‌دهد که ممکن است همیشه به طور آگاهانه متوجه نباشیم که با اخبار جعلی مواجه هستیم. علوم اعصاب در حال کمک به کشف آنچه ناخودآگاه اتفاق می‌افتد است. نشانگرهای زیستی مانند ضربان قلب، حرکات چشم و فعالیت مغز ظاهراً در پاسخ به محتوای واقعی و جعلی به طور ظریفی تغییر می‌کنند. به عبارت دیگر، این نشانگرهای زیستی ممکن است «نشانه‌هایی» باشند که نشان می‌دهند ما فریب خورده‌ایم یا نه.

به عنوان مثال، هنگامی که انسان‌ها به صورت‌ها نگاه می‌کنند، داده‌های ردیابی چشم نشان می‌دهد که ما به دنبال نرخ پلک زدن و تغییرات رنگ پوست ناشی از جریان خون هستیم. اگر این عناصر غیر طبیعی به نظر برسند، می‌تواند به ما کمک کند تصمیم بگیریم که به یک دیپ‌فیک نگاه می‌کنیم یا نه. این دانش می‌تواند به هوش مصنوعی برتری دهد – می‌توانیم آن را آموزش دهیم تا آنچه انسان‌ها به دنبال آن هستند را تقلید کند.

شخصی‌سازی یک بررسی‌کننده اخبار جعلی مبتنی بر هوش مصنوعی با استفاده از یافته‌های داده‌های حرکت چشم انسان و فعالیت الکتریکی مغز شکل می‌گیرد که نشان می‌دهد چه نوع محتوای نادرستی بیشترین تأثیر عصبی، روانشناختی و عاطفی را بر ما می‌گذارد و برای چه کسانی.

با شناخت علایق، شخصیت و واکنش‌های عاطفی خاص خود، یک سیستم بررسی واقعیت مبتنی بر هوش مصنوعی می‌تواند تشخیص دهد و پیش‌بینی کند که کدام محتوا شدیدترین واکنش را در ما ایجاد می‌کند. این می‌تواند به تعیین زمانی که افراد فریب خورده‌اند و چه نوع ماده‌ای افراد را راحت‌تر فریب می‌دهد، کمک کند.

محافظت از ما در برابر مضرات اخبار جعلی

چندین روش برای انجام این کار وجود دارد مانند برچسب‌های هشدار، پیوندهایی به محتوای معتبر تأیید شده توسط متخصصان و حتی درخواست از افراد برای تلاش برای در نظر گرفتن دیدگاه‌های مختلف هنگام خواندن چیزی.

بررسی‌کننده اخبار جعلی شخصی‌سازی شده هوش مصنوعی ما می‌تواند طوری طراحی شود که به هر یک از ما یکی از این اقدامات مقابله‌ای را برای خنثی کردن مضرات محتوای نادرست آنلاین ارائه دهد.

چنین فناوری در حال حاضر در حال آزمایش است. محققان در ایالات متحده مطالعه کرده‌اند که چگونه افراد با یک بررسی‌کننده اخبار جعلی شخصی‌سازی شده هوش مصنوعی پست‌های رسانه‌های اجتماعی تعامل می‌کنند. این سیستم یاد گرفت که تعداد پست‌ها در یک فید خبری را به مواردی که معتبر می‌دانست کاهش دهد. به عنوان یک اثبات مفهوم، مطالعه دیگری با استفاده از پست‌های رسانه‌های اجتماعی، محتوای خبری اضافی را به هر پست رسانه‌ای تنظیم کرد تا کاربران را به مشاهده دیدگاه‌های جایگزین تشویق کند.

بخش عمده‌ای از کار در مورد اخبار جعلی، دیپ‌فیک، اطلاعات نادرست و اطلاعات غلط، همان مشکلی را برجسته می‌کند که هر دروغ‌سنج با آن مواجه می‌شود.

انواع مختلفی از دروغ‌سنج‌ها وجود دارد، نه فقط تست پلی‌گراف. برخی فقط به تحلیل زبانی متکی هستند. برخی دیگر سیستم‌هایی هستند که برای خواندن چهره افراد طراحی شده‌اند تا تشخیص دهند آیا آن‌ها میکرو احساساتی را نشت می‌دهند که نشان می‌دهد آن‌ها دروغ می‌گویند یا خیر. به همین ترتیب، سیستم‌های هوش مصنوعی وجود دارند که برای تشخیص اینکه آیا یک چهره واقعی است یا یک دیپ‌فیک طراحی شده‌اند.

قبل از شروع تشخیص، همه ما باید در مورد اینکه یک دروغ چگونه به نظر می‌رسد توافق کنیم تا بتوانیم آن را تشخیص دهیم. در واقع، در تحقیقات فریب نشان داده شده است که می‌تواند آسان‌تر باشد زیرا می‌توانید به افراد دستور دهید چه زمانی دروغ بگویند و چه زمانی حقیقت را بگویند. بنابراین، شما راهی برای دانستن حقیقت زمین قبل از آموزش انسان یا ماشین برای تشخیص تفاوت دارید، زیرا آن‌ها نمونه‌هایی را که می‌توانند قضاوت‌های خود را بر اساس آن‌ها انجام دهند، دریافت می‌کنند.

دانستن اینکه یک دروغ‌سنج خبره چقدر خوب است به این بستگی دارد که چند بار آن‌ها دروغی را که وجود داشته است را تشخیص می‌دهند. اما همچنین، آن‌ها نباید مرتباً کسی را که در واقع دروغ می‌گفت اشتباه بگیرند که حقیقت را می‌گوید.

برای یک سیستم هوش مصنوعی که اخبار جعلی را تشخیص می‌دهد، برای اینکه بسیار دقیق باشد، باید تعداد تشخیص‌های درست بسیار بالا (مثلاً ۹۰٪) و تعداد تشخیص‌های نادرست بسیار پایین (مثلاً ۱۰٪) باشد، و همچنین تعداد هشدارهای کاذب باید پایین بماند (مثلاً ۱۰٪) به این معنی که اخبار واقعی به عنوان جعلی شناخته نشود.

به احتمال زیاد مواردی وجود خواهد داشت، همانطور که در یک نظرسنجی اخیر گزارش شده است، که محتوای خبری ممکن است کاملاً نادرست یا کاملاً درست نباشد، بلکه تا حدی دقیق باشد. ما این را می‌دانیم زیرا سرعت چرخه‌های خبری به این معنی است که آنچه در یک زمان دقیق در نظر گرفته می‌شود، ممکن است بعداً نادرست یا برعکس تشخیص داده شود. بنابراین، یک سیستم بررسی اخبار جعلی کار سختی در پیش دارد.

مضرات اخبار جعلی

اگر از قبل می‌دانستیم چه چیزی جعلی و چه چیزی اخبار واقعی است، نشانگرهای زیستی چقدر دقیق می‌توانند نشان دهند؟ پاسخ خیلی دقیق نیست. فعالیت عصبی اغلب، زمانی که با مقالات خبری واقعی و جعلی مواجه می‌شویم یکسان است.

وقتی صحبت از مطالعات ردیابی چشم می‌شود، باید بدانید که انواع مختلفی از داده‌ها از تکنیک‌های ردیابی چشم جمع‌آوری می‌شوند (به عنوان مثال مدت زمانی که چشم ما روی یک شی ثابت می‌شود، فرکانسی که چشم ما در یک صحنه بصری حرکت می‌کند).

بنابراین بسته به اینکه چه چیزی تحلیل شود، برخی مطالعات نشان می‌دهند که ما هنگام مشاهده محتوای نادرست توجه بیشتری می‌کنیم، در حالی که برخی دیگر نشان می‌دهند برعکس است.

وضعیت مثل قبل است؟

سیستم‌های تشخیص اخبار جعلی مبتنی بر هوش مصنوعی در بازار در حال حاضر از بینش‌های علوم رفتاری برای کمک به علامت‌گذاری و هشدار دادن به ما در برابر محتوای اخبار جعلی استفاده می‌کنند.

در بدترین سناریو، ما فقط اخبار جعلی را به عنوان مشکلی آنلاین می‌بینیم و از آن به عنوان بهانه‌ای برای حل آن با استفاده از هوش مصنوعی استفاده می‌کنیم. اما محتوای نادرست و غلط همه جا وجود دارد و به صورت آفلاین مورد بحث قرار می‌گیرد. نه تنها این، ما به طور پیش‌فرض به همه اخبار جعلی اعتقاد نداریم، بعضی اوقات از آن در بحث‌ها برای نشان دادن ایده‌های بد استفاده می‌کنیم.

اگر به هوش مصنوعی علاقه مند هستید شاید بهتر باشه شما را با یکی از معتبر ترین موسسات آموزشی این حوزه آشنا کنیم، آکادمی فرااپلای با رویکردی جامع و پروژه محور، تمامی ابعاد آموزش هوش مصنوعی را پوشش می‌دهد. از مبانی اولیه تا مفاهیم پیشرفته، در دوره‌های فرااپلای همه چیز را یاد خواهید گرفت. با یادگیری عملی و کار روی پروژه‌های واقعی، به سرعت به یک متخصص هوش مصنوعی تبدیل خواهید شد.

نوشته های مرتبط:

  • هوش مصنوعی ایلان ماسک به میدان آمد
  • هوش مصنوعی می‌تواند دست‌خط شما را تقلید کند!
  • پیامک واریز یک میلیون تومانی شب یلدا
  • اقیانوس اطلس در حال فروپاشی است!
  • ال‌جی با نوآوری‌های مبتنی بر هوش مصنوعی در LG World Premiere
  • بهزاد حسین عباسی بنیان گذار اپراتوری هوش مصنوعی در ایران

هیچ دیدگاهی درج نشده - اولین نفر باشید

    دیدگاهتان را بنویسید لغو پاسخ

    نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

    پیشنهاد ویژه

    • میوه های خشک شامل چیست
    • تفاوت عطر تستر با اصل
    • آیا سگ‌ها پریود می‌شوند؟ توصیه‌های مربوط به شورت قاعدگی سگ
    • نکاتی که قبل از نصب ویندوز 11 باید بدانید: راهنمای کامل برای کاربران
    • گزارش میدانی از یک روز متفاوت در مجموعه «راه پارسی کانادا»



    • اجتماعی
    • فرهنگی
    • ورزشی
    • بین الملل
    • اقتصادی
    • اخبار شرکت ها
    • تماس با ما
    • بلاگ

    طراحی سایت و سئو سایت توسط اینتن