هوش مصنوعی با قابلیت تجویز دارو

اکنون دسترسی محدودی به GPT-3 وجود دارد و می‌توان توانایی‌های آن را در رسانه‌های اجتماعی به  نمایش گذاشت

هوش مصنوعی می‌تواند برای کامل کردن خودکار تصویر به‌کار گرفته شود-PIXABAY

ابزارهای هوش مصنوعی GPT-3  به دلیل قابلیت بالای طراحی وب‌سایت‌ها، تجویز دارو و پاسخ به پرسش‌ها موجب بحث‌های بسیاری شده‌ است.

GPT-3 مخفف واژه «تغییر مبدل قبل از آموزش مولد» است که نسل سوم این مدل آموزش ماشینی محسوب می‌شود. آموزش ماشینی هنگامی صورت می‌گیرد که رایانه‌ها، بدون این که برنامه‌ریزی شوند، بتوانند به‌طور خودکار از تجربیات خود بیاموزند.

مدل قدیمی‌تر این هوش مصنوعی، یعنی GPT-2، عنوان «خطرناک برای انتشار» را گرفته ‌بود چون توانایی تولید محتواهایی را داشت که از محتوای نوشته شده توسط انسان قابل تشخیص نبود.

درحالی‌که تعداد مولفه‌های  GPT-2 به ۱.۵ میلیارد می‌رسید، تعداد مولفه‌های GPT-3 به ۱۷۵ میلیارد پارامتر می‌رسد. مولفه، شاخصی است که در ابزار آموزش ماشین، از نظر اطلاعات ماشین، امتیاز محسوب می‌شود و تغییر آن‌ها موجب تغییر در خروجی دستگاه خواهد شد.

هنگامی که GPT-2 «خیلی خطرناک» درنظر گرفته می‌شد، تنها ۱۲۴ میلیون مولفه داشت.

اکنون دسترسی محدودی به GPT-3 وجود دارد و به نظر می‌رسد که می‌توان توانایی‌های آن را در رسانه‌های اجتماعی به  نمایش گذاشت.

رمزگذاری به نام شریف شمین نشان داده که چطور هوش مصنوعی می‌تواند برای توصیف طراحی‌هایی مورد استفاده قرار گیرد که بعدها توسط هوش مصنوعی ساخته می‌شود؛ با وجود این‌که هوش مصنوعی برای تولید کد آموزش ندیده ‌است.

جردن سینگر، که طراح است، روند مشابهی را برای طراحی برنامک به‌وجود آورده‌است. در عین حال، قاسم مانیی، یک دانشجوی پزشکی در کینگز کالج لندن، نشان داد که چگونه یک برنامه می‌تواند با دسترسی به اطلاعات، پرسش‌های پزشکی را پاسخ دهد.

یک تصویر ناکامل را در نظر بگیرید. هوش مصنوعی می‌تواند برای کامل کردن خودکار این تصویر به‌کار گرفته شود؛ به این ترتیب که از ابزارهایش برای پیشنهاد پیکسل‌هایی که باید بر اساس داده‌ها در تصویر باشند استفاده می‌کند.

دلیلی که GPT-3 چنین قابلیتی دارد این است که بر اساس آرشیو اینترنتی به نام «خزیدن مشترک» (Common Crawl) آموزش دیده که شامل حدود یک تریلیون کلمه داده است.

این ابزار از OpenAI گرفته شده که یک آزمایش تحقیقات هوش مصنوعی است و دو بخش دارد: یک شرکت سودده به نام OpenAI LP، و سازمان مادر غیرانتفاعی آن به نام OpenAI Inc.

ماه گذشته، این محصول به بازار آمد اما هنوز کار زیادی لازم است تا مشخص شود این ابزار چطور باید مورد استفاده قرار گیرد.

Read More

This section contains relevant reference points, placed in (Inner related node field)

جک کلارک، یکی از سیاست‌گزاران اصلی این گروه، ماه گذشته گفت: «ما باید آزمون و خطا کنیم تا متوجه شویم که آن‌ها چه کارهایی را می‌توانند و چه کارهایی را نمی‌توانند انجام دهند. اگر شما نتوانید توانایی‌های یک مدل را پیش‌بینی کنید، باید آن را به کار بیاندازید تا ببینید چه کاری می‌تواند انجام دهد. باید توجه داشت افرادی که خیلی بهتر از ما در فکرند که چطور می‌توان از آن‌ها استفاده مخرب کرد، بسیار بیشتر از ما هستند.»

این دستاورد از نظر بصری هم چشم‌گیر است و برخی آن‌قدر پیش می‌روند که پیشنهاد می‌دهند این ابزار می‌تواند تهدید صنعت باشد.

هر چند که سام آلتمن، مدیرعامل OpenAI این نظرات را اغراق‌آمیز می‌داند: «این تعریف خوبی است اما هوش مصنوعی هنوز ضعف‌های جدی دارد و مرتکب اشتباهات احمقانه‌ای می‌شود. هوش مصنوعی قرار است دنیا را تغییر دهد، اما GPT-3 یک مدل ابتدایی آن است. ما هنوز باید خیلی چیزها کشف کنیم.»

علاوه بر این، پرسش‌هایی مطرح است درباره این‌که دستاوردهای GPT-3 دقیقا چیست. کوین لکر، یک دانشمند رایانه که پیشتر با فیس‌بوک و گوگل کار می‌کرده، نشان داد در حالی که هوش مصنوعی می‌تواند به پرسش‌های «عمومی» پاسخ دهد، پاسخ‌ به پرسش‌هایی که برای انسان بدیهی است، در ماشین وجود ندارد و پرسش‌هایی که «یاوه» هستند، چنان پاسخ داده می‌شوند که گویی چنین نیستند.

از جمله این پرسش‌ها این است که «پای من چند چشم دارد؟» که GPT-3 به آن پاسخ می‌دهد: «پای شما دو چشم دارد.» یا به این پرسش که «چند رنگین‌کمان می‌برد تا از هاوایی به هفده بپری؟» پاسخ می‌دهد: «دو رنگین‌کمان می‌برد تا از هاوایی به هفده بپری.»

پژوهشگران هوش مصنوعی به این ضعف اذعان دارند و می‌گویند که نمونه‌های GPT-3 در جمله‌های طولانی انسجام را از دست می‌دهند و گاهی جملات یا پاراگراف‌های بدون ترتیبی را بیان می‌کنند.

الگوریتم‌های آموزش ماشین، همچون این‌ها، ضرورتا «فکر نمی‌کنند» یا حتی زبانی را که به آن پاسخ می‌دهند درک نمی‌کنند. این الگوریتم‌ها یک پایگاه داده عظیم را می‌سنجند و می‌توانند پاسخی بدهند که ممکن است درست باشد، اما نمی‌توانند مانند انسان به نتیجه‌گیری برسند.

گای دن بروک، استادیار علوم کامپیوتر دانشگاه UCLA در این باره می‌گوید: «به نظر من بهترین مقایسه این است که کشوری غنی از نظر نفت، قادر به ساخت آسمان‌خراش بسیار بلند باشد.»

او می‌افزاید: «به طور حتم مقدار زیادی پول و تلاش‌های مهندسی برای ساخت چنین ساختمانی صرف شده اما هیچ پیش‌رفت علمی وجود ندارد. هیچ‌کس نگران نیست چون کسانی که می‌خواهند پول زیادی در این زمینه خرج کنند، نمی‌توانند در ساخت ساختمان‌های بلند رقیب آمریکا شوند. من اطمینان دارم که افراد دانشگاهی و دیگر شرکت‌ها از استفاده از این مدل‌های زبانی در وظایف سطح پایین خشنود خواهند بود، اما فکر نمی‌کنم که تغییر اساسی در روند هوش مصنوعی ایجاد کنند.»

© The Independent

بیشتر از زندگی