تروریستها چگونه از هوش مصنوعی برای جذب نیرو و پول بهره میبرند؟
روزنامه گاردین در مطلبی تحلیلی به بررسی چگونگی استفاده گروههای تروریستی از هوش مصنوعی برای جذب نیرو و تامین مالی عملیات خود پرداخت. بر این اساس، سازمانهای ضدتروریسم در تلاشاند برتری خود را حفظ و حملات را خنثی کنند، اما دسترسی به ابزارهای دیجیتال آسانتر شده است.
گاردین روز سهشنبه ۱۷ تیر در گزارشی نوشت که مقامهای ضدتروریسم سالهاست پیگیری فعالیت گروههای تروریستی و نحوه استفاده آنها از ابزارهای دیجیتال و اپلیکیشنهای شبکههای اجتماعی را به بازی «موش و چکش» (Whac-a-Mole) تشبیه میکنند؛ بازیای که در آن با نابود شدن یک تهدید، بلافاصله تهدید تازهای جای آن را میگیرد.
گروههای جهادی مانند داعش و پیشتر القاعده، و همچنین گروههای نژادپرست افراطی همچون نئونازیهای «بیس»، از ابزارهای دیجیتال برای جذب نیرو، تامین مالی پنهانی از طریق رمزارزها، دانلود نقشههای ساخت سلاح با چاپگر سهبعدی و آموزش فنون خرابکاری به هوادارانشان بهره گرفتهاند.
در این میان، نهادهای اطلاعاتی و نیروهای انتظامی همواره در تلاش بودهاند که از آنها عقب نمانند.
تروریستها از هوش مصنوعی برای تسریع در فعالیتهای موجودشان بهره میبرند
با گذر زمان و افزایش دسترسی به منابع متنباز، تلاشها برای خنثیسازی حملات این گروهها و حفظ برتری فناورانه بر آنها نیز پیشرفتهتر و پیچیدهتر شده است.
اکنون با ظهور هوش مصنوعی چه بهعنوان فناوری در حال توسعه سریع و چه بهصورت اپلیکیشنهای رایگان و در دسترس کنونی، نهادهای امنیتی در حال تقلا هستند.
منابع مطلع از تلاشهای ضدتروریستی دولت آمریکا به روزنامه گاردین گفتهاند که چندین نهاد امنیتی عمیقاً نگراناند هوش مصنوعی بهطور فزایندهای به گروههای متخاصم در برنامهریزی و اجرای عملیات قدرت و توانایی بیشتری میدهد.
آدام هدلی، بنیانگذار و مدیر اجرایی سازمان «فناوری علیه تروریسم» که کمیته اجرایی مبارزه با تروریسم سازمان ملل از آن حمایت میکند، گفت: «تحقیقات ما دقیقا همین روندی را که اکنون شاهدش هستیم پیشبینی کرده بود؛ اینکه گروههای تروریستی از هوش مصنوعی بیشتر برای سرعت بخشیدن به فعالیتهای فعلی خود استفاده میکنند، نه برای ایجاد یک جهش بنیادین در تواناییهای عملیاتیشان.»
او افزود خطرات آینده شامل استفاده تروریستها از هوش مصنوعی برای توسعه سریع اپلیکیشنها و وبسایتهاست؛ اما در اساس، هوش مصنوعی تولیدی (Generative AI) تهدیدهای ناشی از فناوریهای موجود را تقویت میکند، نه اینکه دسته تهدیدهای کاملا جدیدی ایجاد کند.
تا اینجا، گروههایی مانند داعش و دیگر سازمانهای مشابه، استفاده از هوش مصنوعی را آغاز کردهاند و بهویژه با کمک چتباتهایی مثل چتجیپیتی، محتوای تبلیغاتی خود را در قالبهای چندرسانهای و با روشهایی تازه و گستردهتر منتشر میکنند.
مصطفی ایاد، مدیر اجرایی موسسه گفتوگوی راهبردی برای آفریقا، خاورمیانه و آسیا گفت: «بخش زیادی از کاری که هوش مصنوعی انجام میدهد، تقویت همان چیزهایی است که پیشتر هم وجود داشتهاند. این فناوری توان تبلیغاتی و انتشار محتوای آنها را افزایش داده و حالا به یکی از اجزای اصلی این روند تبدیل شده است.»
اعضای داعش چطور از هوش مصنوعی برای طراحی حملاتشان استفاده میکنند
داعش علاقهاش به هوش مصنوعی را پنهان نمیکند و اکنون بهصراحت فرصت بهرهبرداری از امکانات فعلی آن را به رسمیت شناخته است.
این گروه حتی در یک کانال رمزگذاریشده «راهنمای ابزارها و خطرات هوش مصنوعی» را برای حامیانش منتشر کرده است.
داعش در یکی از آخرین نشریات تبلیغاتی خود، درباره آینده هوش مصنوعی نوشت و تاکید کرد که باید این فناوری را به بخشی از عملیات خود تبدیل کند.
در یکی از مقالههای نشریه داعش آمده است: «برای هر فرد، فارغ از زمینه کاری یا تخصصش، درک ظرایف هوش مصنوعی به ضرورتی غیرقابل اجتناب تبدیل شده است.»
در همین نشریه، یکی از نویسندگان داعش توضیح میدهد که خدمات هوش مصنوعی میتوانند «مشاوران دیجیتال» و «دستیاران تحقیقاتی» برای هر عضو گروه باشند.
در یکی از اتاقهای گفتوگوی فعال داعش که برای ارتباط با پیروان و جذب نیرو استفاده میشود، کاربران شروع به بحث درباره روشهای استفاده از هوش مصنوعی کردهاند؛ هرچند برخی همچنان با احتیاط به آن نگاه میکنند.
یکی از کاربران پرسیده بود که آیا استفاده از چتجیپیتی برای یادگیری «چگونه ساختن مواد منفجره» امن است یا نه.
او همچنین ابراز تردید کرده بود که آیا سازمانهای امنیتی فعالیت در این حوزه را زیر نظر دارند یا خیر؛ موضوعی که به یکی از نگرانیهای جدی درباره حریم خصوصی این چتبات از زمان راهاندازیاش تبدیل شده است.
یکی دیگر از کاربران پرسیده بود: «گزینههای دیگری وجود دارد؟ چیزی که امن باشد.»
اما کاربر دیگری با ارسال طرح و دستورالعملی درباره ساخت «نقشه اولیه یک نمونه خودروی کنترلی از راه دور طبق گفتههای چتجیپیتی»، راهی غیرمستقیم برای دور زدن سیستمهای نظارتی پیدا کرده بود.
استفاده از خودرو برای حمله، مثل زیر گرفتن عابران، به یکی از روشهای رایج داعش در حملات اخیر از سوی اعضا و هوادارانش تبدیل شده است.
در ماه مارس، یکی از حسابهای مرتبط با داعش حتی یک ویدیوی ساخت بمب با استفاده از هوش مصنوعی منتشر کرد که در آن یک آواتار، دستور تهیه بمبی با وسایل خانگی را توضیح میداد.
گروههای راست افراطی نیز به نوبه خود به هوش مصنوعی علاقه نشان دادهاند؛ مثلا یکی از این گروهها به هوادارانش آموزش داده چگونه میتوانند با استفاده از آن، میمهای جعلی و گمراهکننده بسازند.
گروههای دیگر نیز به دنبال تولید گرافیکهایی از آدولف هیتلر و محتوای تبلیغاتی با استفاده از هوش مصنوعی بودهاند.
ایاد در این زمینه گفت برخی از این ابزارهای مبتنی بر هوش مصنوعی به لحاظ امنیت عملیاتی نیز برای گروههای تروریستی «نعمت» بودهاند؛ مثلا در زمینه فنون ارتباطیِ امن، مانند استفاده از تغییردهندههای صدای رمزگذاریشده که امکان پنهان کردن صدا را میدهند.
پیشینه استفاده گروههای تروریستی از فضای دیجیتال
گروههای تروریستی همیشه در استفاده حداکثری از فضاهای دیجیتال برای رشد و گسترش خود پیشرو بودهاند و حالا هوش مصنوعی فقط آخرین نمونه از این روند است.
در ژوئن ۲۰۱۴، زمانی که داعش تازه در حال ورود به عرصه آگاهی جهانی بود، تصاویر و پیامهای اعدام دستهجمعی بیش از هزار مرد را هنگام حمله به موصل بهصورت زنده در توییتر منتشر کرد؛ اقدامی که باعث فرار نیروهای ارتش عراق شد.
پس از آن و با تشکیل «خلافت» و افزایش عملیاتهای سایبری این گروه، تلاش گسترده و هماهنگی میان دولتها و شرکتهای بزرگ فناوری در سیلیکون ولی برای حذف حسابهای داعش در فضای مجازی آغاز شد.
از آن زمان، سازمانهای اطلاعاتی غربی به فضاهایی مانند رمزارزها، پیامرسانهای رمزگذاریشده و سایتهایی که اطلاعات چاپ سهبعدی اسلحه ارائه میدهند، به چشم حوزههایی برای نظارت و کنترل نگاه میکنند.
با اینحال کاهش بودجه و تعدیل در عملیاتهای ضدتروریسم در کشورهای مختلف مانند دولت جو بایدن در آمریکا، این تلاشها را تضعیف کرده است.
هدلی هشدار داد استانداردها بهشدت افت کردهاند و پلتفرمها و دولتها تمرکز کمتری بر این حوزه دارند.
مدیر اجرایی سازمان فناوری علیه تروریسم از شرکتهایی مانند متا و اوپنایآی خواست مکانیزمهای موجود از جمله «اشتراکگذاری هَش و روشهای سنتی شناسایی» را تقویت و روی بهبود «مدیریت محتوا» درباره ایآی کار کنند.