هشدار چین: هوش مصنوعی خطرناک است

«باید آماده بدترین و افراطی‌ترین سناریوهای ممکن باشیم»

هشدار چین درباره خطرناک بودن هوش مصنوعی - Canva

حزب کمونیست چین، که حزب قدرتمند حاکم بر این کشور است، در مورد پیشرفت فناوری هوش مصنوعی هشدار داد و خواهان افزایش اقدام‌هایی در ارتباط با امنیت ملی شد.

در پی جلسه‌ای که روز سه‌شنبه به ریاست شی جین‌پینگ، دبیرکل حزب و رئیس‌جمهوری چین، برگزار شد، بیانیه‌ای درباره این موضوع منتشر شد. کارشناسان می‌گویند بیانیه حزب کمونیست چین خبر از تنشی می‌دهد که بین تلاش پکن برای تبدیل شدن به رهبر جهانی در عرصه فناوری‌های پیشرفته از یک سو، و نگرانی‌هایش درباره آسیب‌های بالقوه اجتماعی و سیاسی این فناوری‌ها از سوی دیگر، وجود دارد.

اخیرا شماری از دانشمندان و شخصیت‌های صنعت فناوری در آمریکا، از جمله مدیران ارشد شرکت‌هایی همچون گوگل و مایکروسافت، نیز هشدار داده بودند که هوش مصنوعی می‌تواند برای بشر خطرناک باشد.

خطر هوش مصنوعی می‌تواند در عرصه‌هایی بسیار گوناگون ظاهر شود. مثلا، قابلیت آن برای کنترل تسلیحاتی که بدون کنترل انسان عمل می‌کنند و استفاده گسترده از آن در ابزارهای مالی، مراکز بهداشتی و درمانی، شبکه‌های حمل‌ونقل، و دیگر زیرساخت‌های کلیدی.

به گزارش خبرگزاری دولتی شینهوآ، جلسه حزبی در پکن به «تلاش‌ برای حفظ امنیت سیاسی و بهبود حاکمیت امنیتی بر داده‌های اینترنتی و هوش مصنوعی» اختصاص داشت. شینهوآ افزود: «در این جلسه تاکید شد که پیچیدگی و شدت مسائل امنیت ملی که کشور ما با آن‌ها مواجه است افزایش چشمگیری یافته است. جبهه امنیت ملی باید اعتماد به نفس راهبردی را افزایش دهد، اعتماد کافی برای تامین پیروزی داشته باشد، و کاملا متوجه قدرت‌ها و مزایای خود باشد.»

این خبرگزاری در ادامه افزود: «باید آماده بدترین و افراطی‌ترین سناریوهای ممکن باشیم. باید بتوانیم از پس آزمون سخت بادهای تند، آب‌های پرتلاطم، و حتی طوفان‌های خطرناک برآییم».

شی، که هم رئیس دولت چین و فرمانده کل قوای کشور و هم رئیس «کمیسیون امنیت ملی» است، در این جلسه تاکید کرد که چین باید «همچنان توجه دقیقی به وضعیت پیچیده و چالش‌برانگیز امنیت ملی» داشته باشد. به گزارش شینهوآ، رئیس‌جمهوری چین تاکید کرد که کشورش به «الگوی جدید توسعه با معماری امنیتی جدید» نیاز دارد.

Read More

This section contains relevant reference points, placed in (Inner related node field)

در حال حاضر، چین منابع عظیمی را صرف سرکوب هرگونه تهدید سیاسی می‌کند. بودجه پلیس و نیروهای امنیتی آن کشور از بودجه ارتش آن بیشتر است. اعتراض‌های خیابانی و انتقادهای اینترنتی در آن کشور به‌شدت محدود می‌شود. با وجود این، اعتراض‌ها ادامه دارد. چند ماه پیش، هزاران نفر در مخالفت با سیاست‌های قرنطینه اکید در زمان شیوع ویروس کرونا به خیابان‌ها آمدند. به نظر می‌رسد این اعتراض‌ها در تغییر رویه دولت چین در این مورد و تسهیل قوانین مربوط به قرنطینه نقش داشتند.

چین در ضمن صنعت فناوری خود را کنترل و سرکوب کرده و سعی کرده است نفوذ حزب حاکم را در این صنعت افزایش دهد. اما، مثل بقیه کشورها، چگونگی اعمال مقررات در صنعت هوش مصنوعی که به‌سرعت در حال پیشرفت است از چالش‌‌های چین نیز بوده است.

در کشورهای دیگر نیز اقدام‌هایی در این‌باره می‌شود. یک مقام آگاه روز چهارشنبه گفت اتحادیه اروپا و آمریکا در چند هفته آینده سندی را با موضوع «شیوه رفتار» در عرصه هوش مصنوعی منتشر خواهند کرد. البته این سند پیشنهادی است و اجرای آن فعلا قرار است داوطلبانه باشد. امید اتحادیه اروپا و آمریکا این است که دیگر کشورهای دموکراتیک نیز از این اصول پیشنهادی پیروی کنند.

اما رویکرد چین طبیعتا متفاوت خواهد بود. به گزارش روزنامه «جوانان امروز پکن»، که نزدیک به دولت است،‌ در جلسه روز سه‌شنبه قرار بر رویکردی شده است که در آن «مخاطرات احتمالی بررسی می‌شود، احتیاط‌های لازم لحاظ می‌شود، از منافع مردم و امنیت ملی پاسداری می‌شود، و ایمنی و مطمئن بودن و قابل کنترل بودن هوش مصنوعی تضمین می‌شود.»

با ظهور نسل جدیدی از روبوت‌های هوش مصنوعی که توانایی زیادی برای محاوره با انسان‌ها دارند، نگرانی‌‌ها در مورد اینکه سامانه‌های هوش مصنوعی بتوانند از انسان‌ها پیشی بگیرند و از کنترل خارج شوند افزایش یافته‌ است. پرآوازه‌ترین این روبوت‌ها «چت جی‌پی‌تی» است.

سام آلتمن، مدیرعامل شرکت «اوپن ای‌آی» که سازنده «چت جی‌پ‌تی » است، یکی از صدها شخصیت مطرحی بود که روز سه‌شنبه بیانیه‌ای امضا کردند و در این مورد هشدار دادند. جفری هینتون، دانشمند کامپیوتری که پدر هوش مصنوعی دانسته می‌شود، از دیگر افراد امضاکننده این بیانیه بود که متن آن در وب‌سایت «مرکز ایمنی هوش مصنوعی» منتشر شده است. در بخشی از این بیانیه آمده است: «مقابله با خطر انقراض در اثر هوش مصنوعی باید اولویتی جهانی همگام با سایر مخاطراتی همچون دنیاگیری و جنگ هسته‌ای باشد که ابعادی جهانی دارند.»

چند ماه پیش، بیش از ۱۰۰۰ پژوهشگر و کارشناس فعال در عرصه فناوری نامه‌ای بسیار بلندتر منتشر کرده بودند و خواهان شش ماه توقف در توسعه هوش مصنوعی شده بودند. ایلان ماسک، که در حال حاضر در چین است، جزو امضاکنندگان آن نامه بلند بود.

امضاکنندگان آن نامه گفته بودند که هوش مصنوعی «مخاطراتی جدی برای جامعه و بشر» دارد. برخی از آن افراد خواهان تدوین معاهده‌ای با مدیریت سازمان ملل متحد برای اعمال مقررات در این زمینه شده‌اند.

چین حداقل از پنج سال پیش در مورد لزوم اعمال مقررات بر هوش مصنوعی هشدار داده است. اما خود این کشور، در تلاش برای پیشرفت در عرصه فناوری، طرح‌‌های بسیاری به پیش برده است.

در چین، برخلاف کشورهای دموکراتیک غربی، مقررات چندانی در زمینه حریم خصوصی وجود ندارد و نظام قضایی کاملا در سیطره حزب کمونیست است. در نتیجه، آن کشور از فناوری تشخیص چهره و صدا و حتی شیوه پیاده‌روی استفاده‌ای بسیار وسیع می‌کند و افراد مورد نظر را شناسایی و دستگیر می‌کند. این سیاست به‌خصوص بر مخالفان سیاسی و اقلیت‌های مذهبی همچون مسلمان‌ها اثر گذاشته است.

نظارت وسیع الکترونیک به‌خصوص بر اویغورها و دیگر مسلمان‌های چین اثر گذاشته است. بیش از یک میلیون نفر از شهروندان مسلمان چین، که عمدتا اویغور هستند، در اردوگاه‌های آموزشی که شرایطی مثل زندان دارند حبس شده‌اند. چین می‌گوید هدف برقراری این اردوگاه‌ها آموزش شغلی و افراطی‌زدایی است. دارن بایلر، انسان‌شناس آمریکایی و استاد دانشگاه سایمون فریزر در کانادا، مقالات و کتاب‌هایی در مورد استفاده پکن از فناوری‌های هوش مصنوعی در این اردوگاه‌ّها منتشر کرده است. به همین دلیل، او مورد انتقاد گسترده رسانه‌های نزدیک به پکن قرار گرفته است.

بیل درکسل و هانا کلی، دو دانشور که در زمینه فناوری و امنیت ملی پژوهش می‌کنند، اخیرا در مقاله‌ای در مجله «فارین افرز» آمریکا نوشتند: «رویکرد بی‌مبالات چین در مورد خطر فناوری، آمال خطرناک دولت این کشور، و سوءمدیریت بحران در پکن، همگی در مسیر تصادم با خطرهای روزافزون هوش مصنوعی قرار دارد.»

بیشتر از جهان