در همان روزی که دونالد ترامپ بهعنوان رئیسجمهوری آمریکا سوگند یاد کرد، شرکت چینی دیپسیک (DeepSeek) یک مدل زبانی بزرگ (LLM) در سطح جهانی منتشر کرد. همانطور که ترامپ اشاره کرد، این یک «زنگ هشدار» بود و مارک وارنر، نایبرئیس کمیته اطلاعات سنای آمریکا، نیز گفت که جامعه اطلاعاتی آمریکاــ شامل ۱۸ سازمان و نهاد مختلفــ از این اتفاق «غافلگیر» شد.
مدل زبانی بزرگ یا الالام (Large Language Model) نوعی از مدلهای هوش مصنوعی است که برای پردازش و تولید زبان طبیعی طراحی شده و قادر است وظایفی مانند ترجمه، تولید متن و پاسخ به سوالات را انجام دهد. این مدلها با استفاده از دادههای متنی آموزش دیدهاند و میتوانند به صورت خودکار متنهای پیچیده را تولید یا تحلیل کنند.
دولت بایدن سال گذشته از اینکه جاسوسها و نیروهای نظامی چین در استفاده و بهکارگیری از فناوریهای هوش مصنوعی از آمریکا پیشی بگیرند، احساس نگرانی کرد. به همین دلیل، به سازمانهای اطلاعاتی، پنتاگون و وزارت انرژی (که سلاحهای هستهای میسازد) دستور داد مدلهای پیشرفتهتر را آزمایش کنند و با آزمایشگاههای پیشرو هوش مصنوعی بهويژه آنتروپیک، گوگل دیپمایند و اوپنایآی همکاری نزدیکتری داشته باشند.
در ۱۴ ژوییه، پنتاگون با آنتروپیک، گوگل، اوپنایآی و همچنین شرکت اکسایآی، متعلق به ایلان ماسک قراردادهایی به ارزش تا ۲۰۰ میلیون دلار منعقد کرد تا با مدلهای عاملمحور (agentic) آزمایش کنند. این مدلها میتوانند از طرف کاربر عمل کنند، وظایف پیچیده را به مراحل کوچکتر تبدیل کنند و حتی کنترل دستگاههای دیگر مانند خودروها یا کامپیوترها را به دست بگیرند.
به گزارش اکونومیست، آزمایشگاههای پیشرو نهتنها در حوزه نظامی، بلکه در دنیای جاسوسی نیز فعالاند. یکی از کاربردهای اولیه چتباتهای الالام برای پردازش دادههای فوقمحرمانه است.
مایکروسافت ژانویه ۲۰۲۵ اعلام کرد که ۲۶ محصول رایانش ابری آن مجوز استفاده در سازمانهای جاسوسی را دریافت کردهاند. آنتروپیک نیز در ژوئن خبر داد که کلودــگوو (Claude Gov) را راهاندازی کرده که در بالاترین سطوح امنیت ملی آمریکا به کار گرفته شده است. اکنون این مدلها در کنار مدلهای سایر شرکتها، تقریبا در تمامی سازمانهای اطلاعاتی آمریکا به طور گسترده استفاده میشوند.
شرکتهای هوش مصنوعی معمولا مدلهایشان را برای نیازهای امنیتی و جاسوسی بهینهسازی میکنند. برای مثال، نسخه عمومی کلود ممکن است اسنادی با مهر محرمانه را به دلیل ملاحظات امنیتی رد کند، اما نسخه کلوودــگوو طوری تنظیم شده است که این مشکل را نداشته باشد. این نسخه همچنین در زبانها و گویشهای موردنیاز کاربران دولتی، مهارت بیشتری دارد. مدلها معمولا روی سرورهای امن و قطعشده از اینترنت عمومی اجرا میشوند. اکنون نسل جدیدی از مدلهای عاملمحور مستقیم درون سازمانها ساخته میشود.
در اروپا نیز، فرایندی مشابه در جریان است. یک منبع بریتانیایی به اکونومیست میگوید: «در حوزه هوش مصنوعی مولد تلاش کردهایم که بهسرعت دنبالهرو مدلهای پیشرو باشیم. همه در جامعه اطلاعاتی بریتانیا به قابلیتهای فوقمحرمانه الالام دسترسی دارند.»
شرکت فرانسوی میسترال که تنها بازیگر جدی اروپا در این حوزه است، با آژانس نظامیــهوشمصنوعی فرانسه (AMIAD) همکاری میکند. مدل صبا (Saba) در این شرکت روی دادههای خاورمیانه و آسیای جنوبی آموزش دیده و در عربی و زبانهای محلی کمدامنهتر مانند تامیل، مهارت بالایی دارد. مجله +۹۷۲ ژانویه گذشته، گزارش داد که استفاده ارتش اسرائیل از جیبیتیــ۴ که پیشرفتهترین مدل اوپنایآی در آن زمان بود، پس از آغاز جنگ غزه ۲۰ برابر افزایش یافته است.
با وجود همه اینها، پیشرفت همچنان کند است؛ کاترینا مولیگان، مقام پیشین دفاعی و اطلاعاتی و مدیر همکاریهای اوپنایآی، در این حوزه، میگوید: «پذیرش هوش مصنوعی در حوزه امنیت ملی هنوز در سطحی که میخواهیم نیست.» یک منبع داخلی هم به اکونومیست میگوید که آژانس امنیت ملی آمریکا که دههها روی فناوریهای هوش مصنوعی اولیه مانند تشخیص صدا کار کرده، نقطه قوت این حوزه است، اما بسیاری از سازمانها همچنان میخواهند نسخههای سفارشی خود را روی چتباتهای موجود بسازند؛ رویکردی که معمولا باعث میشود از آخرین مدلهای عمومی عقب بمانند.
تارون چابرا، مسئول سابق سیاست فناوری در شورای امنیت ملی دولت جو بایدن و مدیر فلعی سیاست امنیت ملی در آنتروپیک میگوید: «تحول واقعی فقط استفاده از آن بهعنوان یک چتبات نیست. تحول زمانی رخ میدهد که بعد از شروع استفاده، کل شیوه اجرای ماموریت را دوباره طراحی کنید.»
بازی جاسوسی هوش مصنوعی
بدبینها معتقدند که این امیدها اغراقآمیز است. ریچارد کارتر از موسسه آلن تورینگ در مرکز ملی هوش مصنوعی بریتانیا، میگوید آنچه سازمانهای اطلاعاتی آمریکا و بریتانیا واقعا میخواهند، کاهش قابلتوجه «توهمها» در الالامهای موجود است. یک منبع بریتانیایی میگوید آژانسهای بریتانیا از روشی به نام تولید تقویتشده با بازیابی (RAG) استفاده میکنند که یک الگوریتم اطلاعات معتبر را جستوجو و به مدل زبانی تغذیه میکند تا خطاها به حداقل برسد.
Read More
This section contains relevant reference points, placed in (Inner related node field)
کارتر هشدار میدهد: «آنچه جامعه اطلاعاتی نیاز دارد، ثبات، قابلیت اعتماد، شفافیت و قابلیت توضیح است.» با این حال، آزمایشگاهها تمرکز خود را روی توسعه مدلهای عاملمحور پیشرفته گذاشتهاند.
برای مثال، تصور میشود که شرکت میسترال به مشتریان احتمالی خود نمایشی ارائه کرده که در آن هر جریان اطلاعات، مانند تصاویر ماهوارهای یا شنود مکالمات صوتی، با یک عامل هوش مصنوعی جفت میشود تا روند تصمیمگیری سریعتر شود. همچنین تصور کنید یک عامل هوش مصنوعی مامور شود تا صدها دانشمند هستهای ایرانی را شناسایی کند، درباره آنها تحقیق کند و سپس با آنها تماس بگیرد تا آنها را به فرار یا پناهندگی تشویق کند.
تارون چابرا اضافه میکند: «ما هنوز به اندازه کافی درباره اینکه چگونه ممکن است از این عاملها در زمینههای جنگی استفاده شود، فکر نکردهایم.»
از سوی دیگر دکتر کارتر هشدار میدهد که مشکل مدلهای عاملمحور این است که آنها دستورالعملهای خود به صورت بازگشتی در واکنش به یک وظیفه تولید میکنند؛ این امر آنها را غیرقابل پیشبینیتر میکند و خطر خطاهای پیچیده را افزایش میدهد. طبق ارزیابی خود این شرکت، آخرین مدل عاملیتمحور اوپنایآی با نام چتجیبیتی-اژنت در حدود ۸ درصد از پاسخها دچار توهم میشود که طبق ارزیابی منتشر شده، نرخ بالاتری نسبت به مدل o3 قبلی این شرکت دارد.
برخی آزمایشگاههای هوش مصنوعی این نگرانیها را سختگیری بوروکراتیک میدانند، اما دکتر کارتر میگوید این صرفا یک محافظهکاری سالم است. او با اشاره به آژانس به همتای بریتانیایی اناسای (NSA) میگوید: «آنچه شما اینجا دارید، نیروی کاری مهندسی فوقالعاده بااستعداد است که بهطور طبیعی به فناوریهای جدید بسیار شکاکاند.»
این موضوع به یک بحث بزرگتر درباره آینده هوش مصنوعی هم مرتبط است. دکتر کارتر جزو کسانی است که معتقدند معماری مدلهای زبانی بزرگ عمومی امروزی برای نوعی استدلال علتومعلولی که بتواند درک محکمی از جهان بدهد، طراحی نشده است. به نظر او، اولویت برای سازمانهای اطلاعاتی باید فشار برای توسعه مدلهای استدلالی جدید باشد.
در مقابل، برخی هشدار میدهند که چین ممکن است بهسرعت جلو بیافتد. فیلیپ راینر از موسسه امنیت و فناوری آیاستی (IST) در سیلیکونولی میگوید: «هنوز در درک ما از اینکه چین چگونه و تا چه حد از دیپسیک برای اهداف نظامی و اطلاعاتی استفاده کرده است شکاف بزرگی وجود دارد. آنها احتمالا مانند ما محدودیتها و محافظهای مشابه روی مدلها ندارند. بنابراین شاید بتوانند سریعتر به بینشهای قدرتمندتری دست یابند.»
در ۲۳ ژوییه، دولت ترامپ به پنتاگون و سازمانهای اطلاعاتی دستور داد که بهطور منظم ارزیابی کنند که آژانسهای امنیت ملی آمریکا با چه سرعتی نسبت به رقبایی مثل چین، در حال پذیرش هوش مصنوعیاند و یک رویکرد سازگار با تغییرات مداوم ایجاد کنند.
اکونومیست نوشت: «تقریبا همه با این نگرانی موافقاند» و سپس به نقل از سناتور وارنر آورد که «جاسوسهای آمریکایی در رصد پیشرفتهای چین عملکرد ضعیفی داشتهاند، زیرا خرید فناوری و نفوذ به شرکتهای فناوری چین، هنوز در سطح بسیار پایینی است.»
کاترینا مولیگان، مقام سابق دفاعی و اطلاعاتی که اکنون مسئول همکاریهای اوپنایآی در حوزه امنیت ملی است، میگوید بزرگترین خطر این نیست که آمریکا بدون درک کامل خطرات، عجولانه وارد این فناوری شود، بلکه «خطر اصلی این است که وزارت دفاع و جامعه اطلاعاتی همچنان کارها را همانطور که همیشه انجام دادهاند، ادامه دهند. چیزی که شبها مرا بیدار نگه میدارد، این است که ما ممکن است در مسابقه رسیدن به هوش مصنوعی عمومی پیروز شویم، اما در مسابقه پذیرش عملی بازنده باشیم.»