آیا می‌توان به چت‌جی‌پی‌تی اعتماد کرد؟

نسخه‌های قدیمی‌تر عبارت‌هایی مانند «ممکن است اشتباه کنم» را بیشتر به کار می‌بردند. نسخه‌های جدید این عبارت‌ها را برای افزایش خوانایی حذف کرده‌اند

معرفی چت‌جی‌پی‌تی روی وب‌سایت اوپن‌ای‌آی‌ــ Canva

چت‌جی‌پی‌تی، پرکاربردترین چت‌بات هوش مصنوعی جهان، بار دیگر زیر ذره‌بین قرار گرفته است؛ این بار پس از آنکه اسکای نیوز فاش کرد این برنامه هوش مصنوعی متن کامل یک قسمت پادکست «سیاست با سم و آن» که تولید کرده جعلی است. این اتفاق پرسش مهمی را پیش می‌کشد: آیا واقعا می‌توان به سیستم هوش مصنوعی که با چنین اطمینانی مطالب نادرست تحویل می‌دهد اعتماد کرد؟

اسکای نیوز در یک ویدیو نشان می‌دهد که چگونه چت‌جی‌پی‌تی نه تنها گفت‌وگوهایی خیالی ساخته، بلکه وقتی به چالش کشیده شده، بر ادعاهای نادرستش پافشاری کرده است. فقط پس از فشار مستمر بود که این چت‌بات از موضعش عقب‌نشینی کرد.

این رفتار که در اصطلاح هوش مصنوعی «توهم» (Hallucination) نام دارد، به مواردی اشاره می‌کند که مدل با اطمینان پاسخ‌هایی نادرست، گمراه‌کننده یا کاملا خیالی ارائه می‌دهد. موضوع نگران‌کننده‌تر این است که نتایج آزمون‌های داخلی شرکت اوپن‌ای‌‌آی، سازنده چت‌جی‌پی‌تی، نشان می‌دهد که این مشکل رو به وخامت است.

Read More

This section contains relevant reference points, placed in (Inner related node field)

طبق بررسی این شرکت، نسخه جی‌پی‌تی‌-۴او-مینی (GPT-4o-mini) در ۴۸ درصد موارد و نسخه او۳ (o3) در ۳۳ درصد مواقع اطلاعات نادرست تولید کرده است، آن هم در پاسخ به پرسش‌هایی با تکیه بر داده‌های عمومی مطرح شده بودند. این آمار روند نگران‌کننده‌ای را نشان می‌دهد: هرچه مدل‌ها روان‌تر و شبیه‌تر به انسان می‌شوند، دروغ‌هایشان نیز متقاعدکننده‌تر جلوه می‌کند.

وقتی از چت‌جی‌پی‌تی درباره دلیل این وضعیت سوال شد، چهار مورد را ذکر کرد:

۱. روان‌تر شدن گفتار: چت‌بات حالا طبیعی‌تر و انسانی‌تر به نظر می‌رسد و همین باعث می‌شود خطاهایش بیشتر عمدی جلوه کند تا تصادفی.

۲. باهوش‌تر ولی نه همه‌چیزدان: اگرچه مدل سریع‌تر و پاسخگوتر شده، هنوز خلاءهای اطلاعاتی دارد و آن‌ها را با اطمینان پر می‌کند، حتی اگر اشتباه باشد.

۳. کاهش استفاده از عبارات احتیاطی: نسخه‌های قدیمی‌تر عبارت‌هایی مانند «ممکن است اشتباه کنم» را بیشتر به کار می‌بردند. نسخه‌های جدید این عبارت‌ها را برای افزایش خوانایی حذف کرده‌اند.

۴. تنظیمات پشت‌پرده و تعادل در آموزش: تغییراتی که در پشت صحنه برای تنظیم مدل انجام می‌شود ممکن است ویژگی اعتمادبه‌نفس را بیش از حد تقویت کرده و از دقت و فروتنی کاسته باشد.

اما آیا حتی به این توضیح چت‌جی‌پی‌تی می‌توان اعتماد کرد؟ تلاش توسعه‌دهندگان برای انسانی‌تر جلوه دادن این فناوری نشان می‌دهد که می‌خواهند ما چنین احساسی داشته باشیم.

منتقدان می‌گویند وقتی می‌گوییم هوش مصنوعی «دروغ می‌گوید»، در واقع آن را انسان‌واره می‌کنیم، چون این سیستم‌ها آگاهی ندارندــ اما در عین حال توسعه‌دهندگان در تلاش‌اند که آن را بیشتر شبیه ما جلوه دهند.

وقتی اسکای نیوز درباره دروغ گفتن از چت‌جی‌پی‌تی سوال کرد، باز هم طفره رفت، ابتدا ادعا کرد اوضاع بهتر شده است، اما وقتی کاربر اصرار کرد که آمار را بررسی کند، پذیرفت که شرایط بدتر شده است.

بی‌تردید هوش مصنوعی ابزاری شگفت‌انگیز است، اما شاید هنوز خیلی زود باشد که چشم‌بسته به آن اعتماد کرد.

بیشتر از تکنولوژی