به نوشته گاردین، مدل هوش مصنوعی «کلود» (Claude) متعلق به شرکت «انتروپیک» (Anthropic) در این عملیات به کار گرفته شده و با کوتاه کردن «زنجیره کشتار» - از شناسایی هدف تا تایید حقوقی و اجرای حمله - نقشی کلیدی در افزایش سرعت عملیات ایفا کرده است. آمریکا و اسرائیل که پیشتر نیز در غزه از هوش مصنوعی برای تعیین اهداف استفاده کرده بودند، تنها در ۱۲ ساعت نخست عملیات علیه حکومت ایران حدود ۹۰۰ حمله انجام دادند؛ حملاتی که در جریان آن علی خامنهای کشته شد.
کارشناسان دانشگاهی به گاردین گفتهاند هوش مصنوعی زمان برنامهریزی حملات پیچیده را بهشدت کاهش داده؛ پدیدهای که از آن با عنوان «فشردهسازی تصمیم» یاد میشود. برخی بیم دارند این روند به جایی برسد که نقش انسانها به تایید صوری تصمیمهایی محدود شود که عملاً توسط ماشینها اتخاذ شدهاند.
به گزارش گاردین، شرکت انتروپیک از سال ۲۰۲۴ مدل خود را در اختیار وزارت جنگ آمریکا و دیگر نهادهای امنیت ملی قرار داده است. کلود بخشی از سامانهای است که شرکت فناوری نظامی «پالانتیر» (Palantir) با همکاری پنتاگون توسعه داده و هدف آن «بهبود چشمگیر تحلیل اطلاعات و تسهیل تصمیمگیری مقامات» عنوان شده است.
کریگ جونز، دانشیار جغرافیای سیاسی در دانشگاه نیوکاسل، به گاردین گفت: «ماشین هوش مصنوعی توصیه میکند چه چیزی هدف قرار گیرد، و این در برخی موارد سریعتر از سرعت فکر است. شما همزمان هم مقیاس دارید و هم سرعت؛ هم حملات هدفمند انجام میدهید و هم توان پاسخ رژیم را از کار میاندازید. کاری که در گذشته روزها یا هفتهها طول میکشید، اکنون همزمان انجام میشود.»
این گزارش میافزاید سامانههای جدید قادرند حجم عظیمی از دادهها - از تصاویر پهپادها و شنود مخابراتی گرفته تا اطلاعات انسانی - را تحلیل کنند. سامانه پالانتیر با استفاده از یادگیری ماشین اهداف را اولویتبندی کرده، نوع تسلیحات مناسب را پیشنهاد میدهد و حتی با استدلال خودکار مبانی حقوقی حمله را ارزیابی میکند.
دیوید لزلی، استاد اخلاق و فناوری در دانشگاه کویین مری لندن، به گاردین هشدار داد اتکای بیش از حد به هوش مصنوعی میتواند به «واگذاری شناختی» منجر شود؛ یعنی تصمیمگیرندگان انسانی به دلیل اینکه فرآیند تحلیل توسط ماشین انجام شده، از پیامدهای انسانی حملات فاصله بگیرند.
گاردین همچنین به پیامدهای انسانی حملات اشاره کرده و نوشته است طبق گزارش رسانههای حکومتی ایران، حمله موشکی به مدرسهای در جنوب این کشور ۱۶۵ کشته برجای گذاشته است. سازمان ملل این حمله را «نقض جدی حقوق بشردوستانه» توصیف کرده و ارتش آمریکا اعلام کرده در حال بررسی گزارشهاست.
در بخش دیگری از گزارش آمده است که مشخص نیست حکومت ایران تا چه حد از هوش مصنوعی در ماشین جنگی خود استفاده میکند، هرچند تهران در سال ۲۰۲۵ مدعی استفاده از این فناوری در سامانههای هدفگیری موشکی شده بود. با این حال، برنامه هوش مصنوعی ایران به دلیل تحریمهای بینالمللی در مقایسه با آمریکا و چین محدود ارزیابی میشود.
گاردین در پایان مینویسد همزمان با افزایش نقش هوش مصنوعی در جنگها، شرکت اوپنایآی (OpenAI) نیز قراردادی با پنتاگون امضا کرده است، در حالی که انتروپیک پیشتر اعلام کرده بود اجازه استفاده از مدلهایش برای تسلیحات کاملاً خودکار یا نظارت بر شهروندان آمریکایی را نخواهد داد.
به گفته کارشناسانی که با گاردین گفتوگو کردهاند، مزیت اصلی این سامانهها «سرعت در تصمیمگیری» است؛ اما همین سرعت، پرسشهای جدی اخلاقی و حقوقی درباره نقش انسان در تصمیمهای مرگبار ایجاد کرده است.