صفحه اصلی / یادداشت ها / عبدی: چگونه هوش مصنوعی می‌تواند دروغ و اطلاعات نادرست را شناسایی کند؟

عباس عبدی، فعال سیاسی-اجتماعی

عبدی: چگونه هوش مصنوعی می‌تواند دروغ و اطلاعات نادرست را شناسایی کند؟

متن درباره استفاده از هوش مصنوعی برای مقابله با اخبار جعلی است. نویسنده بر کارایی AI در راستی‌آزمایی تأکید می‌کند ولی محدودیت‌هایی چون وابستگی به داده‌های باکیفیت و سوگیری الگوریتمی را مطرح می‌کند. پیشنهادهایی برای استفاده آموزشی AI ارائه می‌دهد.
هوش مصنوعی و راستی‌آزمایی اطلاعات در فضای مجازی

سرویس خبری ایران من: در عصر دیجیتال و گسترش شبکه‌های اجتماعی، مقابله با اخبار جعلی و اطلاعات نادرست به یکی از چالش‌های اصلی حکومت‌ها تبدیل شده است. در حالی که برخی کشورها به رویکردهای سنتی مبتنی بر مجازات و جرم‌انگاری متکی هستند، استفاده از فناوری‌های نوین مانند هوش مصنوعی راه‌حلی مؤثرتر و پایدارتر ارائه می‌دهد.

 

رویکرد سنتی حکومت‌ها در مقابله با اطلاعات نادرست

 

در این میان حکومت‌ها می‌کوشند که برای اعمال اقتدار خود، نه تنها مولفه‌های قدرت خود را تنوع بخشند بلکه به جای عوامل سخت‌افزاری به سوی استفاده از عوامل نرم‌افزاری حرکت کنند. یکی از تفاوت‌های مهم نظام‌های سیاسی اولویت دادن آنها بر عوامل مهارکننده و اِعمال اقتدار است.

 

در جامعه ما تنبیه و مجازات و نظارت فردی و جرم‌محور حرف اول را می‌زنند. هر مساله‌ای را که نمی‌پسندند ابتدا جرم‌انگاری کرده، سپس می‌خواهند با مجازات و تشدید نظارت بیرونی آن مساله را حل کنند، و در این میان یکی از ایده‌های رایج دفاع از افزایش شدت مجازات‌ها و گسترش حدود رفتارهای مجرمانه است. در حالی که اگر با مجازات مساله‌ای حل یا رفتارها مطابق میل قدرت می‌شد تاکنون همه مسائل دنیا حل شده بود. لایحه مقابله با انتشار اخبار خلاف در فضای مجازی مصداق فاجعه‌باری از این رویکرد است که جز اتلاف وقت و هزینه و عصبانی کردن مردم هیچ نتیجه‌ دیگری نداشت.

 

نقش هوش مصنوعی در راستی‌آزمایی اطلاعات

 

تاکنون مطالب زیادی در مذمت و نقد این لایحه نوشته شده است. اکنون یکی از خوانندگان محترم یادداشت‌های من که در حوزه هوش مصنوعی آشنایی دارد با پایه قرار دادن نکات اصلی یادداشت‌های بنده، متن زیر را در چگونگی استفاده از این هوش برای مقابله با اخبار خلاف فرستاده که رویکردی ایجابی برای دست‌اندرکاران است تا جلوی دروغ‌ و خلاف‌گویی را با استفاده از این ابزار بگیرند. هوش مصنوعی (AI) نقش مهمی در راستی‌آزمایی اطلاعات، به‌ویژه در فضای مجازی ایفا می‌کند و می‌تواند به عنوان ابزاری دقیق و زیرساختی برای مقابله با دروغ و اطلاعات نادرست عمل کند.

 

با توجه به ضرورت التزام به حقیقت‌محوری و شفافیت، درباره نقش AI، کاربردها و محدودیت‌های آن در ایران، پیشنهادهایی برای استفاده ارایه می‌شود. نقش و کاربردهای هوش مصنوعی در راستی‌آزمایی متنوع است.

 

تشخیص خودکار اخبار جعلی؛ که با تکیه بر مدل‌های یادگیری الگوهای زبانی از سوی هوش مصنوعی می‌تواند منابع غیرمعتبر، یا تناقضات در اخبار را شناسایی کنند. هم‌اکنون پلتفرم‌هایی مانند Full Fact در بریتانیا یا پروژه‌های AI مثل Grok (توسعه‌یافته توسط xAI) برای تحلیل محتوا و شناسایی ادعاهای مشکوک استفاده می‌شوند. این شیوه به دلیل سرعت بالا در پردازش حجم عظیم داده‌ها، به‌ویژه در شبکه‌های اجتماعی مزیت بالایی دارند.

 

تحلیل تصاویر و ویدئوها؛ الگوریتم‌های بینایی کامپیوتری می‌توانند تصاویر یا ویدئوهای دستکاری‌شده (Deepfake) را شناسایی کنند.

 

ابزارهایی مثل Google Fact Check Explorer یا InVID تصاویر را با منابع معتبر مقایسه می‌کنند. برای مثال؛ شناسایی ویدئوهای جعلی در انتخابات یا بحران‌ها (مثل جنگ ١٢ روزه با اسراییل) را به راحتی انجام می‌دهند. مزیت آن نیز کاهش تأثیر محتواهای بصری گمراه‌کننده‌ای است که به سرعت بازنشر می‌شود.

 

راستی‌آزمایی ادعاها با داده‌های باز؛ هوش مصنوعی می‌تواند ادعاهای مطرح‌شده در رسانه‌ها را با پایگاه‌های داده عمومی (مثل آمار دولتی، گزارش‌های سازمان‌های بین‌المللی) مقایسه کند و صحت آنها را ارزیابی کند و موجب کاهش سوگیری انسانی در فرآیند راستی‌آزمایی شود.

 

مدیریت شایعات در زمان کوتاه؛ هوش مصنوعی می‌تواند روند انتشار شایعات را در پلتفرم‌هایی مثل X یا تلگرام یا شبکه‌های ایرانی رصد کرده و با هشدار به موقع به کاربران یا پلتفرم‌ها، گسترش آنها را محدود کند و واکنش سریع به اطلاعات نادرست در بحران‌ها بروز دهد.

 

آموزش و توانمندسازی کاربران؛ چت‌بات‌های مبتنی بر AI می‌توانند به کاربران کمک کنند تا منابع خبری را تحلیل کنند یا صحت یک ادعا را بررسی کنند. مثل چت‌بات‌هایی که در واتس‌اپ یا تلگرام به کاربران پاسخ می‌دهند و منابع معتبر را پیشنهاد می‌کنند و سواد رسانه‌ای به‌صورت تعاملی و در دسترس را افزایش دهند.

محدودیت‌ها و چالش‌های هوش مصنوعی در راستی‌آزمایی

 

البته هوش مصنوعی در راستی‌آزمایی اخبار محدودیت‌هایی هم دارد از جمله؛

 

وابستگی به داده‌های باکیفیت؛ هوش مصنوعی برای عملکرد موثر نیازمند دسترسی به داده‌های معتبر و گسترده است. در کشورهایی مثل ایران که دسترسی به داده‌های شفاف محدود است، دقت آن کاهش می‌یابد و اگر پایگاه‌های داده ناقص یا مغرضانه باشند، ممکن است نتایج گمراه‌کننده تولید کند.

 

سوگیری الگوریتمی؛ الگوریتم‌های هوش مصنوعی ممکن است به دلیل طراحی یا داده‌های آموزشی، سوگیری‌های فرهنگی، سیاسی یا زبانی داشته باشند. این مشکل در جوامع قطبی‌شده مثل ایران می‌تواند اعتماد به آن را کاهش دهد و بدون نظارت انسانی، ممکن است به‌طور ناخواسته برخی گروه‌ها را سانسور یا بدنام کند. البته با گذشت زمان و با انجام اصلاحات لازم، می‌توان کارایی آنها را ارتقا داد.

 

ناتوانی در درک زمینه محتوا؛ هوش مصنوعی در تحلیل طنز، کنایه یا محتوای فرهنگی خاص ممکن است اشتباه کند و یک ادعای غیرجدی را به عنوان دروغ شناسایی کند. این محدودیت می‌تواند به برچسب‌گذاری نادرست محتوا منجر شود.

 

خطر سانسور و سوءاستفاده؛ دولت‌ها یا شرکت‌های بزرگ ممکن است از هوش مصنوعی برای سرکوب محتوای مخالف تحت عنوان «راستی‌آزمایی» استفاده کنند، که با هشدارهای موجود درباره جرم‌انگاری هم‌راستاست و در نبود نهادهای مستقل، می‌تواند به ابزاری برای کنترل اطلاعات تبدیل شود.

 

محدودیت‌های فنی در محتواهای غیرمتنی؛ هوش مصنوعی در شناسایی Deepfake‌های پیشرفته یا محتواهای دستکاری‌شده صوتی، هنوز چالش‌برانگیز است و نیاز به فناوری‌های پیشرفته‌تر دارد. این مشکل در کشورهایی با زیرساخت‌های ضعیف‌تر پررنگ‌تر است.

 

پیشنهادهای عملی برای بکارگیری هوش مصنوعی در ایران

 

برای استفاده از AI در راستی‌آزمایی و مقابله با خلاف‌گویی در ایران و با توجه به لزوم غلبه رویکرد حقیقت‌محوری و اجتناب حداکثری از رویکرد کیفری، اقدامات زیر پیشنهاد می‌شود:

 

ایجاد پلتفرم‌های راستی‌آزمایی مبتنی بر هوش مصنوعی با همکاری دانشگاه‌ها و سازمان‌های غیردولتی مستقل. این ابزارها باید متن‌باز (Open-Source) باشند تا از سوءاستفاده جلوگیری شود. برای نمونه ابزاری باشد که محتوای پربازدید در تلگرام یا X و از همه مهم‌تر در شبکه‌های داخلی ایتا و بله را تحلیل و با داده‌های عمومی (مثل آمار رسمی مرکز آمار و بانک مرکزی) مقایسه کند.

 

برای کاهش سوگیری و خطا، AI باید با تیم‌های راستی‌آزمایی انسانی (شامل روزنامه‌نگاران و محققان مستقل) ترکیب شود. این تیم‌ها می‌توانند زمینه فرهنگی و سیاسی را بهتر تحلیل کنند.

 

توسعه چت‌بات‌های آموزشی به زبان فارسی و با توجه به فرهنگ محلی، کاربران را در تحلیل اخبار راهنمایی می‌کنند. این چت‌بات‌ها می‌توانند در پیام‌رسان‌های با کاربر بالا مثل تلگرام یا واتس‌اپ و ایتا فعال شوند، و به کاربر کمک کنند منبع یک خبر را بررسی یا ادعایی را با داده‌های رسمی مقایسه کند.

 

برای تقویت دقت AI، دولت باید داده‌های عمومی (مثل آمار اقتصادی، سیاسی، قضایی یا سلامت) را به‌صورت شفاف منتشر کند. این کار هم‌راستا با تأکید بر شفافیت است.

 

به جای تأکید بر استفاده از AI برای شناسایی و مجازات منتشرکنندگان اخبار جعلی یا خلاف، باید از آن برای اطلاع‌رسانی و آموزش استفاده شود. این رویکرد از خطر سانسور جلوگیری می‌کند. مثل برچسب‌گذاری محتوای مشکوک در پلتفرم‌ها به‌جای سانسور یا جرم‌انگاری. اتفاقا وجود خبر دروغ با برچسب دروغ نیز آموزنده‌تر از حذف آن است.

 

همکاری با شرکت‌هایی مثل xAI یا گوگل برای استفاده از ابزارهای راستی‌آزمایی پیشرفته، با شرط حفظ استقلال و حریم خصوصی کاربران ایرانی، به ویژه برای تحلیل محتواهای فارسی.

 

یادداشت های دیگر

نقشه جنگ ترکیبی و مداخلات نظامی آمریکا در خاورمیانه

جفری دی. ساکس استاد دانشگاه

تقابل سیاست‌های رؤسای جمهور آمریکا در قبال ایران

رابرت مالی، مذاکره کننده سابق آمریکا با ایران

تقابل پرچم ایران با نمادهای آمریکا و اسرائیل در پس‌زمینه آشوب‌های خیابانی

جان مرشایمر، استاد آمریکایی علوم سیاسی

دیپلماسی و امنیت در خاورمیانه

سیدعباس عراقچی، وزیر امور خارجه ایران

نام نویسنده:

فعال سیاسی-اجتماعی

عضو خبرنامه "ایران من" شوید

خبرنامه هفتگی

آخرین اخبار مهم ایران و جهان را برای شما ارسال خواهیم کرد

عضویت

آخرین اخبار ایران و جهان