هوش مصنوعی سرانجام یاد گرفت بگوید «نمی‌دانم»

پژوهش‌های پیشین «اعتماد به نفس بیش‌ازحد» هوش مصنوعی را به‌عنوان یکی از خطرات اصلی استفاده از چنین ابزارهایی برای تصمیم‌گیری، به‌ویژه در حوزه‌هایی مانند تشخیص پزشکی، آشکار کرده‌اند

عکس تزئینی - طرحی از ای‌آی و انسان - Canva

پژوهشگران کره جنوبی روشی تازه توسعه داده‌اند تا سرانجام مدل‌های هوش مصنوعی را وادار کنند مشابه رفتار انسان‌ها، ناآشنایی خود با موضوع‌ها را بپذیرند.

بر اساس اظهارات پژوهشگران موسسه پیشرفته علوم و فناوری کره، این پیشرفت می‌تواند قابلیت اطمینان مدل‌های هوش مصنوعی مورداستفاده در حوزه‌هایی مانند رانندگی خودران و پزشکی را بهبود دهد.

پژوهش‌های پیشین «اعتماد به نفس بیش‌ازحد» هوش مصنوعی را به‌عنوان یکی از خطرات اصلی استفاده از چنین ابزارهایی برای تصمیم‌گیری، به‌ویژه در حوزه‌هایی مانند تشخیص پزشکی، آشکار کرده‌اند.

مشخص شده است که مدل‌های رایج هوش مصنوعی مانند چت‌جی‌پی‌تی شرکت اوپن‌ای‌آی دچار «توهم» می‌شوند، یا واقعیت‌ها را از خودشان می‌سازند، زیرا به جای اینکه بپذیرند [درباره موضوعی] دانشی ندارند، به این ترغیب می‌شوند که [پاسخ‌ را] حدس بزنند.

اکنون پژوهشگران روشی را توسعه داده‌اند که به هوش مصنوعی امکان می‌دهد موقعیت‌های مربوط به دانش ناآشنا، یا دانشی را که پیش‌تر با آن مواجه نشده است، تشخیص دهد و به بهبود کلی قابلیت اطمینان چت‌بات‌ها کمک کند.

آن‌ها می‌گویند یکی از دلایل بنیادین اعتماد به نفس بیش‌ازحد در هوش مصنوعی، شیوه یادگیری آن‌ها از داده‌های اولیه با استفاده از شبکه‌های عصبی مصنوعی است که زیرساخت اصلی‌شان را تشکیل می‌دهند.

Read More

This section contains relevant reference points, placed in (Inner related node field)

خطاهای کوچکی که در این مرحله به وجود می‌آیند، در صورتی که اصلاح نشوند، ممکن است گسترش پیدا کنند و در طول آموزش‌های بعدی، موجب خطاهای قابل‌توجه شوند.

پژوهشگران دریافتند که مدل [هوش مصنوعی]، هنگامی که داده‌های تصادفی در جریان مرحله مقداردهی اولیه وارد یک شبکه عصبی می‌شد، با وجود آنکه چیزی یاد نگرفته بود، اعتماد به نفس بالایی از خود نشان می‌داد. این موضوع به [بروز] «توهم» منجر شد.

پژوهشگران می‌گویند برای حل این مشکل، از سرنخ‌هایی مربوط به شیوه حل این مسئله در مغز انسان استفاده کردند.

در انسان‌ها، سیگنال‌های مغزی حتی پیش از تولد نیز بدون ورودی خارجی تولید می‌شوند و این به حل این مسئله کمک می‌کند.

دانشمندان با الگوبرداری از این موضوع، سامانه‌ای را توسعه دادند که در آن، زیرساخت شبکه عصبی یک مدل هوش مصنوعی پیش از آغاز یادگیری واقعی، مدت کوتاهی با ورودی‌های نویز تصادفی پیش‌آموزش می‌دید.

به گفته پژوهشگران، این فرایند به هوش مصنوعی کمک می‌کند پیش از آغاز یادگیری داده‌ها، با تنظیم میزان فقدان قطعیت خود، یک خط پایه برای خود تعیین کند.

فرایند آماده‌سازی می‌تواند به یک مدل هوش مصنوعی کمک کند اعتماد اولیه خود را به سطح پایینی نزدیک به حالت تصادفی و شانسی برساند و سوگیری ناشی از اعتماد به نفس بیش‌ازحد را به شکل قابل‌توجهی کاهش دهد.

به عبارت دیگر، پژوهشگران می‌گویند این روش به مدل‌ها کمک می‌کند ابتدا وضعیت «من هنوز چیزی نمی‌دانم» را یاد بگیرند.

پژوهشگران توضیح دادند: «در حالی که مدل‌های رایج حتی برای داده‌هایی که در طول آموزش با آن‌ها مواجه نشده‌‌اند، نیز معمولا با اعتماد به نفس بالا پاسخ‌های نادرست ارائه می‌دهند، مدل‌ها با آموزش آماده‌سازی در توانایی کاهش اعتماد به نفس و تشخیص اینکه 'نمی‌دانند'، بهبود آشکاری نشان دادند.»

این امر می‌تواند به هوش مصنوعی کمک کند توانایی تشخیص «آنچه را می‌داند» از «آنچه نمی‌داند»، توسعه دهد.

سه‌ــ‌بوم پایک، یکی از نویسندگان این مقاله که در مجله «هوش مصنوعی نیچر» (Nature Machine Intelligence) منتشر شد، گفت: «این مقاله نشان می‌دهد که این فناوری با وارد کردن اصول کلیدی رشد مغز به هوش مصنوعی، می‌تواند وضعیت دانش خود را به شکلی شبیه‌تر به انسان‌ها تشخیص دهد.»

«این موضوع مهم است، زیرا به هوش مصنوعی کمک می‌کند بفهمد چه زمانی نامطمئن است یا ممکن است اشتباه کرده باشد، نه اینکه صرفا تعداد دفعاتی را که پاسخ درست می‌دهد، بهبود دهد.»

© The Independent

بیشتر از تکنولوژی