جنگ سرد هوش مصنوعی؛ رقابت آمریکا و چین در میدان جاسوسی و امنیت ملی

«تصور کنید یک عامل هوش مصنوعی مامور شود تا صدها دانشمند هسته‌ای ایرانی را شناسایی کند، درباره آن‌ها تحقیق کند و سپس تماس بگیرد تا آنان را به فرار یا پناهندگی تشویق کند»

تصویر گرافیکی و نمادین از هوش مصنوعی‌ــ چت‌جی‌بی‌تی

در همان روزی که دونالد ترامپ به‌عنوان رئیس‌جمهوری آمریکا سوگند یاد کرد، شرکت چینی دیپ‌سیک (DeepSeek) یک مدل زبانی بزرگ (LLM) در سطح جهانی منتشر کرد. همانطور که ترامپ اشاره کرد، این یک «زنگ هشدار» بود و مارک وارنر، نایب‌رئیس کمیته اطلاعات سنای آمریکا، نیز گفت که جامعه اطلاعاتی آمریکا‌ــ شامل ۱۸ سازمان و نهاد مختلف‌ــ از این اتفاق «غافلگیر» شد.

مدل زبانی بزرگ یا ال‌ال‌ام (Large Language Model) نوعی از مدل‌های هوش مصنوعی است که برای پردازش و تولید زبان طبیعی طراحی شده و قادر است وظایفی مانند ترجمه، تولید متن و پاسخ به سوالات را انجام دهد. این مدل‌ها با استفاده از داده‌های متنی آموزش دیده‌اند و می‌توانند به صورت خودکار متن‌های پیچیده را تولید یا تحلیل کنند.

دولت بایدن سال گذشته از اینکه جاسوس‌ها و نیروهای نظامی چین در استفاده و به‌کارگیری از فناوری‌های هوش مصنوعی از آمریکا پیشی بگیرند، احساس نگرانی کرد. به همین دلیل، به سازمان‌های اطلاعاتی، پنتاگون و وزارت انرژی (که سلاح‌های هسته‌ای می‌سازد) دستور داد مدل‌های پیشرفته‌تر را آزمایش کنند و با آزمایشگاه‌های پیشرو هوش مصنوعی به‌ويژه آنتروپیک، گوگل دیپ‌مایند و اوپن‌ای‌آی همکاری نزدیک‌تری داشته باشند.

در ۱۴ ژوییه، پنتاگون با آنتروپیک، گوگل، اوپن‌ای‌آی و همچنین شرکت اکس‌ای‌آی، متعلق به ایلان ماسک قراردادهایی به ارزش تا ۲۰۰ میلیون دلار منعقد کرد تا با مدل‌های عامل‌محور (agentic) آزمایش کنند. این مدل‌ها می‌توانند از طرف کاربر عمل کنند، وظایف پیچیده را به مراحل کوچک‌تر تبدیل کنند و حتی کنترل دستگاه‌های دیگر مانند خودروها یا کامپیوترها را به دست بگیرند.

به گزارش اکونومیست، آزمایشگاه‌های پیشرو نه‌تنها در حوزه نظامی، بلکه در دنیای جاسوسی نیز فعال‌اند. یکی از کاربردهای اولیه چت‌بات‌های ال‌ال‌ام برای پردازش داده‌های فوق‌محرمانه است.

مایکروسافت ژانویه ۲۰۲۵ اعلام کرد که ۲۶ محصول رایانش ابری آن مجوز استفاده در سازمان‌های جاسوسی را دریافت کرده‌اند. آنتروپیک نیز در ژوئن خبر داد که کلود‌ــ‌گوو (Claude Gov) را راه‌اندازی کرده که در بالاترین سطوح امنیت ملی آمریکا به کار گرفته شده است. اکنون این مدل‌ها در کنار مدل‌های سایر شرکت‌ها، تقریبا در تمامی سازمان‌های اطلاعاتی آمریکا به طور گسترده استفاده می‌شوند.

شرکت‌های هوش مصنوعی معمولا مدل‌هایشان را برای نیازهای امنیتی و جاسوسی بهینه‌سازی می‌کنند. برای مثال، نسخه عمومی کلود ممکن است اسنادی با مهر محرمانه را به‌ دلیل ملاحظات امنیتی رد کند، اما نسخه کلوود‌ــ‌گوو طوری تنظیم شده است که این مشکل را نداشته باشد. این نسخه همچنین در زبان‌ها و گویش‌های موردنیاز کاربران دولتی، مهارت بیشتری دارد. مدل‌ها معمولا روی سرورهای امن و قطع‌شده از اینترنت عمومی اجرا می‌شوند. اکنون نسل جدیدی از مدل‌های عامل‌محور مستقیم درون سازمان‌ها ساخته می‌شود.

در اروپا نیز، فرایندی مشابه در جریان است. یک منبع بریتانیایی به اکونومیست می‌گوید: «در حوزه هوش مصنوعی مولد تلاش کرده‌ایم که به‌سرعت دنباله‌رو مدل‌های پیشرو باشیم. همه در جامعه اطلاعاتی بریتانیا به قابلیت‌های فوق‌محرمانه ال‌ال‌ام دسترسی دارند.»

شرکت فرانسوی میسترال که تنها بازیگر جدی اروپا در این حوزه است، با آژانس نظامی‌‌ــ‌هوش‌مصنوعی فرانسه (AMIAD) همکاری می‌کند. مدل صبا (Saba) در این شرکت روی داده‌های خاورمیانه و آسیای جنوبی آموزش دیده و در عربی و زبان‌های محلی کم‌دامنه‌تر مانند تامیل، مهارت بالایی دارد. مجله +۹۷۲ ژانویه گذشته، گزارش داد که استفاده ارتش اسرائیل از جی‌بی‌تی‌ــ۴ که پیشرفته‌ترین مدل اوپن‌ای‌آی در آن زمان بود، پس از آغاز جنگ غزه ۲۰ برابر افزایش یافته است.

با وجود همه این‌ها، پیشرفت همچنان کند است؛ کاترینا مولیگان، مقام پیشین دفاعی و اطلاعاتی و مدیر همکاری‌های اوپن‌ای‌آی، در این حوزه، می‌گوید: «پذیرش هوش مصنوعی در حوزه امنیت ملی هنوز در سطحی که می‌خواهیم نیست.» یک منبع داخلی هم به اکونومیست می‌گوید که آژانس امنیت ملی آمریکا که دهه‌ها روی فناوری‌های هوش مصنوعی اولیه مانند تشخیص صدا کار کرده، نقطه قوت این حوزه است، اما بسیاری از سازمان‌ها همچنان می‌خواهند نسخه‌های سفارشی خود را روی چت‌بات‌های موجود بسازند؛ رویکردی که معمولا باعث می‌شود از آخرین مدل‌های عمومی عقب بمانند.

تارون چابرا، مسئول سابق سیاست فناوری در شورای امنیت ملی دولت جو بایدن و مدیر فلعی سیاست امنیت ملی در آنتروپیک می‌گوید: «تحول واقعی فقط استفاده از آن به‌عنوان یک چت‌بات نیست. تحول زمانی رخ می‌دهد که بعد از شروع استفاده، کل شیوه اجرای ماموریت را دوباره طراحی کنید.»

بازی جاسوسی هوش مصنوعی

بدبین‌ها معتقدند که این امیدها اغراق‌آمیز است. ریچارد کارتر از موسسه آلن تورینگ در مرکز ملی هوش مصنوعی بریتانیا، می‌گوید آنچه سازمان‌های اطلاعاتی آمریکا و بریتانیا واقعا می‌خواهند، کاهش قابل‌توجه «توهم‌ها» در ال‌ال‌ام‌های موجود است. یک منبع بریتانیایی می‌گوید آژانس‌های بریتانیا از روشی به نام تولید تقویت‌شده با بازیابی (RAG) استفاده می‌کنند که یک الگوریتم اطلاعات معتبر را جست‌وجو و به مدل زبانی تغذیه می‌کند تا خطاها به حداقل برسد.

Read More

This section contains relevant reference points, placed in (Inner related node field)

کارتر هشدار می‌دهد: «آنچه جامعه اطلاعاتی نیاز دارد، ثبات، قابلیت اعتماد، شفافیت و قابلیت توضیح است.» با این حال، آزمایشگاه‌ها تمرکز خود را روی توسعه مدل‌های عامل‌محور پیشرفته گذاشته‌اند.

برای مثال، تصور می‌شود که شرکت میسترال به مشتریان احتمالی خود نمایشی ارائه کرده که در آن هر جریان اطلاعات، مانند تصاویر ماهواره‌ای یا شنود مکالمات صوتی، با یک عامل هوش مصنوعی جفت می‌شود تا روند تصمیم‌گیری سریع‌تر شود. همچنین تصور کنید یک عامل هوش مصنوعی مامور شود تا صدها دانشمند هسته‌ای ایرانی را شناسایی کند، درباره آن‌ها تحقیق کند و سپس با آن‌ها تماس بگیرد تا آن‌ها را به فرار یا پناهندگی تشویق کند.

تارون چابرا اضافه می‌کند: «ما هنوز به اندازه کافی درباره اینکه چگونه ممکن است از این عامل‌ها در زمینه‌های جنگی استفاده شود، فکر نکرده‌ایم.»

از سوی دیگر دکتر کارتر هشدار می‌دهد که مشکل مدل‌های عامل‌محور این است که آن‌ها دستورالعمل‌های خود به صورت بازگشتی در واکنش به یک وظیفه تولید می‌کنند؛ این امر آن‌ها را غیرقابل پیش‌بینی‌تر می‌کند و خطر خطاهای پیچیده را افزایش می‌دهد. طبق ارزیابی خود این شرکت، آخرین مدل عاملیت‌محور اوپن‌ای‌آی با نام چت‌جی‌بی‌تی-اژنت در حدود ۸ درصد از پاسخ‌ها دچار توهم می‌شود که طبق ارزیابی منتشر شده، نرخ بالاتری نسبت به مدل o3 قبلی این شرکت دارد.

برخی آزمایشگاه‌های هوش مصنوعی این نگرانی‌ها را سختگیری بوروکراتیک می‌دانند، اما دکتر کارتر می‌گوید این صرفا یک محافظه‌کاری سالم است. او با اشاره به آژانس به همتای بریتانیایی ان‌اس‌ای (NSA) می‌گوید: «آنچه شما اینجا دارید، نیروی کاری مهندسی فوق‌العاده بااستعداد است که به‌طور طبیعی به فناوری‌های جدید بسیار شکاک‌اند.»

این موضوع به یک بحث بزرگ‌تر درباره آینده هوش مصنوعی هم مرتبط است. دکتر کارتر جزو کسانی است که معتقدند معماری مدل‌های زبانی بزرگ عمومی امروزی برای نوعی استدلال علت‌ومعلولی که بتواند درک محکمی از جهان بدهد، طراحی نشده است. به نظر او، اولویت برای سازمان‌های اطلاعاتی باید فشار برای توسعه مدل‌های استدلالی جدید باشد.

در مقابل، برخی هشدار می‌دهند که چین ممکن است به‌سرعت جلو بی‌افتد. فیلیپ راینر از موسسه امنیت و فناوری آی‌اس‌تی (IST) در سیلیکون‌ولی می‌گوید: «هنوز در درک ما از اینکه چین چگونه و تا چه حد از دیپ‌سیک برای اهداف نظامی و اطلاعاتی استفاده کرده است شکاف بزرگی وجود دارد. آن‌ها احتمالا مانند ما محدودیت‌ها و محافظ‌های مشابه روی مدل‌ها ندارند. بنابراین شاید بتوانند سریع‌تر به بینش‌های قدرتمندتری دست یابند.»

در ۲۳ ژوییه، دولت ترامپ به پنتاگون و سازمان‌های اطلاعاتی دستور داد که به‌طور منظم ارزیابی کنند که آژانس‌های امنیت ملی آمریکا با چه سرعتی نسبت به رقبایی مثل چین، در حال پذیرش هوش مصنوعی‌اند و یک رویکرد سازگار با تغییرات مداوم ایجاد کنند.

اکونومیست نوشت: «تقریبا همه با این نگرانی موافق‌اند» و سپس به نقل از سناتور وارنر آورد که «جاسوس‌های آمریکایی در رصد پیشرفت‌های چین عملکرد ضعیفی داشته‌اند، زیرا خرید فناوری و نفوذ به شرکت‌های فناوری چین، هنوز در سطح بسیار پایینی است.»

کاترینا مولیگان، مقام سابق دفاعی و اطلاعاتی که اکنون مسئول همکاری‌های اوپن‌ای‌آی در حوزه امنیت ملی است، می‌گوید بزرگ‌ترین خطر این نیست که آمریکا بدون درک کامل خطرات، عجولانه وارد این فناوری شود، بلکه «خطر اصلی این است که وزارت دفاع و جامعه اطلاعاتی همچنان کارها را همان‌طور که همیشه انجام داده‌اند، ادامه دهند. چیزی که شب‌ها مرا بیدار نگه می‌دارد، این است که ما ممکن است در مسابقه رسیدن به هوش مصنوعی عمومی پیروز شویم، اما در مسابقه پذیرش عملی بازنده باشیم.»

بیشتر از تکنولوژی