چتجیپیتی، پرکاربردترین چتبات هوش مصنوعی جهان، بار دیگر زیر ذرهبین قرار گرفته است؛ این بار پس از آنکه اسکای نیوز فاش کرد این برنامه هوش مصنوعی متن کامل یک قسمت پادکست «سیاست با سم و آن» که تولید کرده جعلی است. این اتفاق پرسش مهمی را پیش میکشد: آیا واقعا میتوان به سیستم هوش مصنوعی که با چنین اطمینانی مطالب نادرست تحویل میدهد اعتماد کرد؟
اسکای نیوز در یک ویدیو نشان میدهد که چگونه چتجیپیتی نه تنها گفتوگوهایی خیالی ساخته، بلکه وقتی به چالش کشیده شده، بر ادعاهای نادرستش پافشاری کرده است. فقط پس از فشار مستمر بود که این چتبات از موضعش عقبنشینی کرد.
این رفتار که در اصطلاح هوش مصنوعی «توهم» (Hallucination) نام دارد، به مواردی اشاره میکند که مدل با اطمینان پاسخهایی نادرست، گمراهکننده یا کاملا خیالی ارائه میدهد. موضوع نگرانکنندهتر این است که نتایج آزمونهای داخلی شرکت اوپنایآی، سازنده چتجیپیتی، نشان میدهد که این مشکل رو به وخامت است.
Read More
This section contains relevant reference points, placed in (Inner related node field)
طبق بررسی این شرکت، نسخه جیپیتی-۴او-مینی (GPT-4o-mini) در ۴۸ درصد موارد و نسخه او۳ (o3) در ۳۳ درصد مواقع اطلاعات نادرست تولید کرده است، آن هم در پاسخ به پرسشهایی با تکیه بر دادههای عمومی مطرح شده بودند. این آمار روند نگرانکنندهای را نشان میدهد: هرچه مدلها روانتر و شبیهتر به انسان میشوند، دروغهایشان نیز متقاعدکنندهتر جلوه میکند.
وقتی از چتجیپیتی درباره دلیل این وضعیت سوال شد، چهار مورد را ذکر کرد:
۱. روانتر شدن گفتار: چتبات حالا طبیعیتر و انسانیتر به نظر میرسد و همین باعث میشود خطاهایش بیشتر عمدی جلوه کند تا تصادفی.
۲. باهوشتر ولی نه همهچیزدان: اگرچه مدل سریعتر و پاسخگوتر شده، هنوز خلاءهای اطلاعاتی دارد و آنها را با اطمینان پر میکند، حتی اگر اشتباه باشد.
۳. کاهش استفاده از عبارات احتیاطی: نسخههای قدیمیتر عبارتهایی مانند «ممکن است اشتباه کنم» را بیشتر به کار میبردند. نسخههای جدید این عبارتها را برای افزایش خوانایی حذف کردهاند.
۴. تنظیمات پشتپرده و تعادل در آموزش: تغییراتی که در پشت صحنه برای تنظیم مدل انجام میشود ممکن است ویژگی اعتمادبهنفس را بیش از حد تقویت کرده و از دقت و فروتنی کاسته باشد.
اما آیا حتی به این توضیح چتجیپیتی میتوان اعتماد کرد؟ تلاش توسعهدهندگان برای انسانیتر جلوه دادن این فناوری نشان میدهد که میخواهند ما چنین احساسی داشته باشیم.
منتقدان میگویند وقتی میگوییم هوش مصنوعی «دروغ میگوید»، در واقع آن را انسانواره میکنیم، چون این سیستمها آگاهی ندارندــ اما در عین حال توسعهدهندگان در تلاشاند که آن را بیشتر شبیه ما جلوه دهند.
وقتی اسکای نیوز درباره دروغ گفتن از چتجیپیتی سوال کرد، باز هم طفره رفت، ابتدا ادعا کرد اوضاع بهتر شده است، اما وقتی کاربر اصرار کرد که آمار را بررسی کند، پذیرفت که شرایط بدتر شده است.
بیتردید هوش مصنوعی ابزاری شگفتانگیز است، اما شاید هنوز خیلی زود باشد که چشمبسته به آن اعتماد کرد.