چقدر به تشخیص دقیق اخبار جعلی توسط هوش مصنوعی نزدیک هستیم؟
در تلاش بلندپروازانه برای مقابله با مضرات محتوای نادرست در رسانههای اجتماعی و وبسایتهای خبری، دانشمندان داده خلاقیت به خرج میدهند. مدلهای بزرگ زبانی (LLM) که برای ایجاد چتباتهایی مانند ChatGPT استفاده میشوند، اگرچه هنوز در مراحل اولیه هستند، اما برای تشخیص اخبار جعلی هم استفاده میشوند. با تشخیص بهتر، سیستمهای بررسی اخبار جعلی مبتنی […]
در تلاش بلندپروازانه برای مقابله با مضرات محتوای نادرست در رسانههای اجتماعی و وبسایتهای خبری، دانشمندان داده خلاقیت به خرج میدهند.
مدلهای بزرگ زبانی (LLM) که برای ایجاد چتباتهایی مانند ChatGPT استفاده میشوند، اگرچه هنوز در مراحل اولیه هستند، اما برای تشخیص اخبار جعلی هم استفاده میشوند. با تشخیص بهتر، سیستمهای بررسی اخبار جعلی مبتنی بر هوش مصنوعی ممکن است بتوانند به هشدار دادن و در نهایت مقابله با مضرات جدی ناشی از دیپفیک، تبلیغات، نظریههای توطئه و اطلاعات نادرست کمک کنند.
ابزارهای هوش مصنوعی سطح بعدی، تشخیص محتوای نادرست را شخصیسازی کرده و از ما در برابر آن محافظت خواهند کرد. برای این جهش نهایی به سمت هوش مصنوعی کاربر محور، علوم داده باید به رفتارشناسی و علوم اعصاب روی آورد.
تحقیقات اخیر نشان میدهد که ممکن است همیشه به طور آگاهانه متوجه نباشیم که با اخبار جعلی مواجه هستیم. علوم اعصاب در حال کمک به کشف آنچه ناخودآگاه اتفاق میافتد است. نشانگرهای زیستی مانند ضربان قلب، حرکات چشم و فعالیت مغز ظاهراً در پاسخ به محتوای واقعی و جعلی به طور ظریفی تغییر میکنند. به عبارت دیگر، این نشانگرهای زیستی ممکن است «نشانههایی» باشند که نشان میدهند ما فریب خوردهایم یا نه.
به عنوان مثال، هنگامی که انسانها به صورتها نگاه میکنند، دادههای ردیابی چشم نشان میدهد که ما به دنبال نرخ پلک زدن و تغییرات رنگ پوست ناشی از جریان خون هستیم. اگر این عناصر غیر طبیعی به نظر برسند، میتواند به ما کمک کند تصمیم بگیریم که به یک دیپفیک نگاه میکنیم یا نه. این دانش میتواند به هوش مصنوعی برتری دهد – میتوانیم آن را آموزش دهیم تا آنچه انسانها به دنبال آن هستند را تقلید کند.
شخصیسازی یک بررسیکننده اخبار جعلی مبتنی بر هوش مصنوعی با استفاده از یافتههای دادههای حرکت چشم انسان و فعالیت الکتریکی مغز شکل میگیرد که نشان میدهد چه نوع محتوای نادرستی بیشترین تأثیر عصبی، روانشناختی و عاطفی را بر ما میگذارد و برای چه کسانی.
با شناخت علایق، شخصیت و واکنشهای عاطفی خاص خود، یک سیستم بررسی واقعیت مبتنی بر هوش مصنوعی میتواند تشخیص دهد و پیشبینی کند که کدام محتوا شدیدترین واکنش را در ما ایجاد میکند. این میتواند به تعیین زمانی که افراد فریب خوردهاند و چه نوع مادهای افراد را راحتتر فریب میدهد، کمک کند.
محافظت از ما در برابر مضرات اخبار جعلی
چندین روش برای انجام این کار وجود دارد مانند برچسبهای هشدار، پیوندهایی به محتوای معتبر تأیید شده توسط متخصصان و حتی درخواست از افراد برای تلاش برای در نظر گرفتن دیدگاههای مختلف هنگام خواندن چیزی.
بررسیکننده اخبار جعلی شخصیسازی شده هوش مصنوعی ما میتواند طوری طراحی شود که به هر یک از ما یکی از این اقدامات مقابلهای را برای خنثی کردن مضرات محتوای نادرست آنلاین ارائه دهد.
چنین فناوری در حال حاضر در حال آزمایش است. محققان در ایالات متحده مطالعه کردهاند که چگونه افراد با یک بررسیکننده اخبار جعلی شخصیسازی شده هوش مصنوعی پستهای رسانههای اجتماعی تعامل میکنند. این سیستم یاد گرفت که تعداد پستها در یک فید خبری را به مواردی که معتبر میدانست کاهش دهد. به عنوان یک اثبات مفهوم، مطالعه دیگری با استفاده از پستهای رسانههای اجتماعی، محتوای خبری اضافی را به هر پست رسانهای تنظیم کرد تا کاربران را به مشاهده دیدگاههای جایگزین تشویق کند.
بخش عمدهای از کار در مورد اخبار جعلی، دیپفیک، اطلاعات نادرست و اطلاعات غلط، همان مشکلی را برجسته میکند که هر دروغسنج با آن مواجه میشود.
انواع مختلفی از دروغسنجها وجود دارد، نه فقط تست پلیگراف. برخی فقط به تحلیل زبانی متکی هستند. برخی دیگر سیستمهایی هستند که برای خواندن چهره افراد طراحی شدهاند تا تشخیص دهند آیا آنها میکرو احساساتی را نشت میدهند که نشان میدهد آنها دروغ میگویند یا خیر. به همین ترتیب، سیستمهای هوش مصنوعی وجود دارند که برای تشخیص اینکه آیا یک چهره واقعی است یا یک دیپفیک طراحی شدهاند.
قبل از شروع تشخیص، همه ما باید در مورد اینکه یک دروغ چگونه به نظر میرسد توافق کنیم تا بتوانیم آن را تشخیص دهیم. در واقع، در تحقیقات فریب نشان داده شده است که میتواند آسانتر باشد زیرا میتوانید به افراد دستور دهید چه زمانی دروغ بگویند و چه زمانی حقیقت را بگویند. بنابراین، شما راهی برای دانستن حقیقت زمین قبل از آموزش انسان یا ماشین برای تشخیص تفاوت دارید، زیرا آنها نمونههایی را که میتوانند قضاوتهای خود را بر اساس آنها انجام دهند، دریافت میکنند.
دانستن اینکه یک دروغسنج خبره چقدر خوب است به این بستگی دارد که چند بار آنها دروغی را که وجود داشته است را تشخیص میدهند. اما همچنین، آنها نباید مرتباً کسی را که در واقع دروغ میگفت اشتباه بگیرند که حقیقت را میگوید.
برای یک سیستم هوش مصنوعی که اخبار جعلی را تشخیص میدهد، برای اینکه بسیار دقیق باشد، باید تعداد تشخیصهای درست بسیار بالا (مثلاً ۹۰٪) و تعداد تشخیصهای نادرست بسیار پایین (مثلاً ۱۰٪) باشد، و همچنین تعداد هشدارهای کاذب باید پایین بماند (مثلاً ۱۰٪) به این معنی که اخبار واقعی به عنوان جعلی شناخته نشود.
به احتمال زیاد مواردی وجود خواهد داشت، همانطور که در یک نظرسنجی اخیر گزارش شده است، که محتوای خبری ممکن است کاملاً نادرست یا کاملاً درست نباشد، بلکه تا حدی دقیق باشد. ما این را میدانیم زیرا سرعت چرخههای خبری به این معنی است که آنچه در یک زمان دقیق در نظر گرفته میشود، ممکن است بعداً نادرست یا برعکس تشخیص داده شود. بنابراین، یک سیستم بررسی اخبار جعلی کار سختی در پیش دارد.
اگر از قبل میدانستیم چه چیزی جعلی و چه چیزی اخبار واقعی است، نشانگرهای زیستی چقدر دقیق میتوانند نشان دهند؟ پاسخ خیلی دقیق نیست. فعالیت عصبی اغلب، زمانی که با مقالات خبری واقعی و جعلی مواجه میشویم یکسان است.
وقتی صحبت از مطالعات ردیابی چشم میشود، باید بدانید که انواع مختلفی از دادهها از تکنیکهای ردیابی چشم جمعآوری میشوند (به عنوان مثال مدت زمانی که چشم ما روی یک شی ثابت میشود، فرکانسی که چشم ما در یک صحنه بصری حرکت میکند).
بنابراین بسته به اینکه چه چیزی تحلیل شود، برخی مطالعات نشان میدهند که ما هنگام مشاهده محتوای نادرست توجه بیشتری میکنیم، در حالی که برخی دیگر نشان میدهند برعکس است.
وضعیت مثل قبل است؟
سیستمهای تشخیص اخبار جعلی مبتنی بر هوش مصنوعی در بازار در حال حاضر از بینشهای علوم رفتاری برای کمک به علامتگذاری و هشدار دادن به ما در برابر محتوای اخبار جعلی استفاده میکنند.
در بدترین سناریو، ما فقط اخبار جعلی را به عنوان مشکلی آنلاین میبینیم و از آن به عنوان بهانهای برای حل آن با استفاده از هوش مصنوعی استفاده میکنیم. اما محتوای نادرست و غلط همه جا وجود دارد و به صورت آفلاین مورد بحث قرار میگیرد. نه تنها این، ما به طور پیشفرض به همه اخبار جعلی اعتقاد نداریم، بعضی اوقات از آن در بحثها برای نشان دادن ایدههای بد استفاده میکنیم.
اگر به هوش مصنوعی علاقه مند هستید شاید بهتر باشه شما را با یکی از معتبر ترین موسسات آموزشی این حوزه آشنا کنیم، آکادمی فرااپلای با رویکردی جامع و پروژه محور، تمامی ابعاد آموزش هوش مصنوعی را پوشش میدهد. از مبانی اولیه تا مفاهیم پیشرفته، در دورههای فرااپلای همه چیز را یاد خواهید گرفت. با یادگیری عملی و کار روی پروژههای واقعی، به سرعت به یک متخصص هوش مصنوعی تبدیل خواهید شد.
هیچ دیدگاهی درج نشده - اولین نفر باشید