پژوهشگران کره جنوبی روشی تازه توسعه دادهاند تا سرانجام مدلهای هوش مصنوعی را وادار کنند مشابه رفتار انسانها، ناآشنایی خود با موضوعها را بپذیرند.
بر اساس اظهارات پژوهشگران موسسه پیشرفته علوم و فناوری کره، این پیشرفت میتواند قابلیت اطمینان مدلهای هوش مصنوعی مورداستفاده در حوزههایی مانند رانندگی خودران و پزشکی را بهبود دهد.
پژوهشهای پیشین «اعتماد به نفس بیشازحد» هوش مصنوعی را بهعنوان یکی از خطرات اصلی استفاده از چنین ابزارهایی برای تصمیمگیری، بهویژه در حوزههایی مانند تشخیص پزشکی، آشکار کردهاند.
مشخص شده است که مدلهای رایج هوش مصنوعی مانند چتجیپیتی شرکت اوپنایآی دچار «توهم» میشوند، یا واقعیتها را از خودشان میسازند، زیرا به جای اینکه بپذیرند [درباره موضوعی] دانشی ندارند، به این ترغیب میشوند که [پاسخ را] حدس بزنند.
اکنون پژوهشگران روشی را توسعه دادهاند که به هوش مصنوعی امکان میدهد موقعیتهای مربوط به دانش ناآشنا، یا دانشی را که پیشتر با آن مواجه نشده است، تشخیص دهد و به بهبود کلی قابلیت اطمینان چتباتها کمک کند.
آنها میگویند یکی از دلایل بنیادین اعتماد به نفس بیشازحد در هوش مصنوعی، شیوه یادگیری آنها از دادههای اولیه با استفاده از شبکههای عصبی مصنوعی است که زیرساخت اصلیشان را تشکیل میدهند.
Read More
This section contains relevant reference points, placed in (Inner related node field)
خطاهای کوچکی که در این مرحله به وجود میآیند، در صورتی که اصلاح نشوند، ممکن است گسترش پیدا کنند و در طول آموزشهای بعدی، موجب خطاهای قابلتوجه شوند.
پژوهشگران دریافتند که مدل [هوش مصنوعی]، هنگامی که دادههای تصادفی در جریان مرحله مقداردهی اولیه وارد یک شبکه عصبی میشد، با وجود آنکه چیزی یاد نگرفته بود، اعتماد به نفس بالایی از خود نشان میداد. این موضوع به [بروز] «توهم» منجر شد.
پژوهشگران میگویند برای حل این مشکل، از سرنخهایی مربوط به شیوه حل این مسئله در مغز انسان استفاده کردند.
در انسانها، سیگنالهای مغزی حتی پیش از تولد نیز بدون ورودی خارجی تولید میشوند و این به حل این مسئله کمک میکند.
دانشمندان با الگوبرداری از این موضوع، سامانهای را توسعه دادند که در آن، زیرساخت شبکه عصبی یک مدل هوش مصنوعی پیش از آغاز یادگیری واقعی، مدت کوتاهی با ورودیهای نویز تصادفی پیشآموزش میدید.
به گفته پژوهشگران، این فرایند به هوش مصنوعی کمک میکند پیش از آغاز یادگیری دادهها، با تنظیم میزان فقدان قطعیت خود، یک خط پایه برای خود تعیین کند.
فرایند آمادهسازی میتواند به یک مدل هوش مصنوعی کمک کند اعتماد اولیه خود را به سطح پایینی نزدیک به حالت تصادفی و شانسی برساند و سوگیری ناشی از اعتماد به نفس بیشازحد را به شکل قابلتوجهی کاهش دهد.
به عبارت دیگر، پژوهشگران میگویند این روش به مدلها کمک میکند ابتدا وضعیت «من هنوز چیزی نمیدانم» را یاد بگیرند.
پژوهشگران توضیح دادند: «در حالی که مدلهای رایج حتی برای دادههایی که در طول آموزش با آنها مواجه نشدهاند، نیز معمولا با اعتماد به نفس بالا پاسخهای نادرست ارائه میدهند، مدلها با آموزش آمادهسازی در توانایی کاهش اعتماد به نفس و تشخیص اینکه 'نمیدانند'، بهبود آشکاری نشان دادند.»
این امر میتواند به هوش مصنوعی کمک کند توانایی تشخیص «آنچه را میداند» از «آنچه نمیداند»، توسعه دهد.
سهــبوم پایک، یکی از نویسندگان این مقاله که در مجله «هوش مصنوعی نیچر» (Nature Machine Intelligence) منتشر شد، گفت: «این مقاله نشان میدهد که این فناوری با وارد کردن اصول کلیدی رشد مغز به هوش مصنوعی، میتواند وضعیت دانش خود را به شکلی شبیهتر به انسانها تشخیص دهد.»
«این موضوع مهم است، زیرا به هوش مصنوعی کمک میکند بفهمد چه زمانی نامطمئن است یا ممکن است اشتباه کرده باشد، نه اینکه صرفا تعداد دفعاتی را که پاسخ درست میدهد، بهبود دهد.»
© The Independent

