زنگ خطر هنرمندان و روزنامه‌نگاران؛ هوش مصنوعی چه مشاغلی را به خطر می‌اندازد؟

حتی اگر شغل شما ایمن هم باشد، هوش مصنوعی می‌تواند در انتخاب همکاران آتی شما نقش داشته باشد و این میدان مین است

بحث برانگیزتر از بازار کار، دخالت هوش مصنوعی در دستگاه قضایی برای بسیاری، به‌درستی، نگران‌کننده است- Canva

«آیا برنامه‌های هوش مصنوعی می‌توانند خودآگاه شوند؟» این پرسشی آشنا است. نوع بشر این پرسش را از پیش از آنکه هال از ادیسه فضایی روی صفحه نمایشمان ظاهر شود، مطرح کرد– اما زمانی که فرصت مصاحبه با یکی از کارشناسان برجسته جهان در زمینه هوش مصنوعی را دارید، باید دوباره آن را بپرسید. [هال ۹۰۰۰ نام سیستم هوش مصنوعی در فیلم «۲۰۰۱: ادیسه فضایی» استنلی کوبریک است] 

من منتظر پشت‌‌چشم نازک کردن‌ام؛ یک «البته که نه» خسته‌کننده. اما در عوض، پروفسور وینسنت کانیتزر– استاد علوم رایانه در دانشگاه کارنگی ملون و دانشگاه آکسفورد با تمرکز بر هوش مصنوعی و یادگیری ماشین و رئیس بخش تعامل با هوش مصنوعی در موسسه اخلاق در هوش مصنوعی– امکان آن را در نظر می‌گیرد.

او به من می‌گوید: «این سیستم‌ها به‌وضوح خیلی سریع بهتر می‌شوند. شاید واقعا زمانی به این نتیجه برسیم که یک سیستم آگاه است.»

بحث درباره فردیت هوش مصنوعی چیزی نیست که من در آغاز [یعنی] زمانی که شروع کردم از یک چت‌بات نوشتن متن‌های بد [مجموعه تلویزیونی] «نیلوفر سفید» و (حتی بدتر) آهنگ‌های ۱۹۷۵ را درخواست کنم، تصور می‌کردم. ابزار پیشتاز چت‌جی‌پی‌تی (ChatGPT) اوپن‌اِی‌آی– آزمایشگاه تحقیقاتی غیرانتفاعی که ایلان ماسک در سال ۲۰۱۵ تاسیس کرد– اوایل این ماه عرضه شد. این به کاربر امکان می‌دهد پرسشی بپرسد یا درخواستی بدهد که این ابزار به روش انسانی به آن پاسخ می‌دهد و این پاسخ‌‌ها فوق‌العاده قانع‌کننده‌اند.

پس از چند ساعت کارهای بامزه– مانند نوشتن هایکو [اشعار ژاپنی] به سبک فریژر کرین (Frasier Crane) یا متن‌های خانواده سوپرانو [Sopranos/یک مجموعه تلویزیونی] آنجایی که تونی از تگزاس می‌آید– موارد استفاده درست و واقعی به‌سرعت مشخص می‌شود.

من ایمیل‌های پیش‌نویس را روگذار [پیست/paste] می‌کنم و از ابزار می‌خواهم تا حرفه‌ای‌تر به نظر برسند. من برای ایجاد متن‌های مایکروسافت اکسل کمک می‌خواهم و از آن می‌خواهم برای ایده‌های هدیه کریسمس خواهرزاده‌ها و برادرزاده‌ها کمک فکری بدهد. (برای برادرزاده ۱۲ ساله‌ام مونوپولی و توپ فوتبال پیشنهاد می‌کند. برای خواهرزاده ۱۰ ساله‌ام لوازم هنری یا بلیت‌های سینما پیشنهاد می‌دهد. برای کودک ۹ ساله، کیت آزمایش‌های علمی و برای کودک ۶ ساله، لباس‌های شیک و رسمی و ابزار موسیقی پیشنهاد می‌کند)

بر اساس گزارش‌ها، جرمی هوارد، پژوهشگر هوش مصنوعی که کارش الهام‌بخش ساخت چت‌جی‌پی‌تی بود، به دخترش گفت: «به هر چیزی که به شما می‌دهد، اعتماد نکنید.» به طور خاص، او هشدار می‌دهد که چت‌جی‌پی‌تی را خیلی جدی نگیرید یا فرض نکنید فقط به این دلیل که انسان نیست، سوءگیری ندارد. هوارد گفت: «این [چت‌جی‌پی‌تی] می‌تواند اشتباه کند.»

و از قضا اشتباه هم می‌کند. چت‌جی‌پی‌تی در پرسش‌های ریاضی، اعداد اول را متوجه نشد و در محاسبات پایه ناموفق بود. هنگام ایجاد کد، از روی بی‌دقتی اشتباه‌هایی می‌کند که یک کارآموز سرخوش مرتکب می‌شود. همچنین فکر می‌کرد که بنیان‌گذار مجله تایم همان مردی است که مالک شرکت غذای منجمد بردزآی (Birdseye) است.

با این وجود، به نظر می‌رسد بیشتر انسان باشد تا رایانه. اگر بابت یک اشتباه مچش گرفته شود، عذرخواهی می‌کند و می‌کوشد توضیح دهد چرا این اشتباه را مرتکب شده است. اگر پرسش را بد بیان کنید و از آن بپرسید، معمولا در هر صورت معنی را بدون توجه به آن استنباط می‌کند و هنگامی که وظایف نوشتن با قابلیت انعطاف و پایان باز بیشتری به آن محول شود، بارقه‌هایی از خلاقیت وجود دارد.

همه این‌ها پرسش‌هایی نگران‌کننده‌ به وجود می‌آورند.

کارشناسان در بحث اخیر در مرکز تحقیقات پیو، انواع نگرانی‌های توسعه هوش مصنوعی را سبک و سنگین می‌کنند– از جمله این نگرانی‌ که ایجاد یک سیستم هوش مصنوعی واقعا مبتنی بر اخلاق، دشوار است. اینکه کنترل هوش مصنوعی در دستان شرکت‌ها و دولت‌های قدرتمند متمرکز است و اینکه این سیستم‌ها آنقدر غیرشفاف‌اند که تشخیص و اصلاح و جبران سوء‌استفاده‌ها دشوار است.

جان هارلو، متخصص تحقیقات شهرهای هوشمند در آزمایشگاه اینگیجمنت در کالج امرسون، در خلال آن مباحثه گفت: «از هوش مصنوعی در دهه آینده بیشتر به روش‌های بحث‌برانگیز استفاده خواهد شد. چرا؟ این روشی است که تاکنون از آن استفاده شده و ما در جایی که هوش مصنوعی در حال توسعه است، متخصصان اخلاق را آموزش نمی‌دهیم یا در آن نمی‌گنجانیم؛ پس چرا چیزی باید تغییر کند؟»

آیا هوش مصنوعی، شغل مرا خواهد گرفت؟

انگیزه من در در مصاحبه‌ام با کانیتزر، در ابتدا علاقه شخصی بود. به طور خاص، با دیدن اینکه چت‌جی‌پی‌تی چقدر خوب می‌تواند بنویسد، می‌خواستم بدانم که آیا شغل روزنامه‌نگاری من در معرض خطر است؟ بسیاری از همکاران من با ظهور ناگهانی رکود اقتصادی– چه جدی و چه شوخی– این ایده را مطرح کرده‌اند که هوش مصنوعی پیشرفته می‌تواند خیلی راحت، حقوق و دستمزد را نابود کند. به هر حال، این ابزاری است که صرفا نسخه‌های انبوه مقالات خبری موجود را تولید نمی‌کند. می‌تواند کل مقاله را با فرمان‌های یک جمله‌ای سر هم کند. از آن می‌خواهم که سرمقاله‌ای برای روزنامه‌ بنویسد که آیا قطب‌بندی سیاسی آمریکا به جنگ داخلی منجر می‌شود یا نه. طی چند ثانیه، مقاله‌ای به‌قدری منسجم تولید می‌کند که نمی‌توانم آن را از بسیاری از سرمقاله‌های موجود در اینترنت تشخیص دهم و تفکیک کنم. چت‌جی‌پی‌تی جریان‌ها و گرایش‌های سیاسی نهفته آشفته را با کنترل‌ها و موازنه‌هایی که بیش از ۲۰۰ سال از کشور محافظت کرده‌اند ارزیابی و نتیجه‌گیری می‌کند: «با وجود این عوامل، هنوز هم ممکن است که قطبی‌سازی سیاسی در صورت کنترل نشدن، به جنگ داخلی بینجامد.»

مایکروسافت در سال ۲۰۲۰ برنامه انباشت ویرایشگر ام‌اس‌ان خود را کنار گذاشت تا هوش مصنوعی را جایگزین آن کند. اکنون این فناوری وجود دارد که حتی از این نیز فراتر رود؛ آیا تعداد زیاد گزارش‌ها پیام هشدار است؟ در واقع، آیا بخش عظیمی از بازار کار به همین منوال پیش می‌رود؟

کانتیزر– هنوز– چندان نگران نیست و هوش مصنوعی را مکمل وظایف اغلب افراد می‌داند تا یک جایگزینی احتمالی: «اغلب مشاغل وظایف متعددی دارند. در برخی شرایط، ما می‌توانیم برخی کارهای بیشتر تکرارشونده را خودکار کنیم، که می‌تواند به معنای آن باشد که شما برای اجرای یک وظیفه نسبت به قبل، به افراد کمتری نیاز دارید.»

یک مثال رادیولوژی است. «رادیولوژیست‌ها کارهای زیادی انجام می‌دهند، اما بگذارید در مورد بخش خاصی از وظیفه صحبت کنیم که در آن تصویری از چیزی به دست می‌آورند و تلاش می‌کنند آن را طبقه‌بندی کنند که آیا یک تومور بدخیم است یا خیر. این چیزی است که می‌توانید سعی کنید از طریق هوش مصنوعی آن را خودکار کنید؛ زیرا تلاش می‌کنید تصاویر جدید را با الگوهای موجود تطبیق دهید.»

Read More

This section contains relevant reference points, placed in (Inner related node field)

او معتقد است که مشاغل متمرکز بر روابط با تکرار محدود باید تا حد زیادی برای آینده نه چندان دور، دست‌نخورده باقی بمانند. او معلمی در یک مدرسه ابتدایی را به عنوان نقشی که احتمالا به مدتی طولانی وجود خواهد داشت، مثال می‌زند. در واقع، بسیاری از مشاغلی که در حال حاضر حقوق بالا دارند و چندین سال تحصیلات عالی می‌طلبند– برای نمونه مهندسی نرم‌افزار– به‌مراتب بیشتر از مشاغلی همچون تدریس، پرستاری و مراقبت از سالمندان که در حال حاضر در بازار ارزش کمتری دارند، خودکار و ماشینی می‌شوند.

اما حتی اگر شغل شما ایمن هم باشد، هوش مصنوعی می‌تواند در انتخاب همکاران آتی شما نقش داشته باشد و این میدان مین است.

نرم‌افزار هوش مصنوعی قادر است هزاران تقاضانامه را بررسی کند تا ۱۰ موردی را که روی کاغذ، محتمل‌ترین گزینه برای این شغل‌اند، بیابد. اما ایجاد چنین سیستمی از همان ابتدا خطر سوءگیری را به دنبال دارد– چرا که باید نمونه‌هایی از رزومه‌های گزینه‌های موفق و ناموفق را به آن نشان دهید. این خطر وجود دارد که پیشداوری یک مدیر بخش استخدام درباره عملکرد یک شرکت همواره باقی بماند.

کانتیزر می‌گوید: «ممکن است متوجه آن نشده باشید، اما اگر یکی از مواردی که به آن نگاه می‌کردید، نژاد یا جنسیت آن شخص بود و بر اینکه تصمیم به مصاحبه با او می‌گیرید یا نه، تاثیر می‌گذاشت، احتمالا سیستم متوجه این موضوع می‌شود و می‌گوید خب، این ظاهرا یکی از ویژگی‌هایی است که باید به آن اهمیت بدهم؛ چرا که این چیزی است که سیگنال‌ها به من نشان می‌دهند.»

این مشکلی است که نیویورک سیتی در حال حاضر به کمک قانون بی‌سابقه‌ای که هر سیستم تصمیم‌گیری استخدامی مبتنی بر هوش مصنوعی را به رسیدگی و بررسی سوءگیری ملزم  می‌کند، برای مقابله با آن اقدام می‌کند.

از پلیس تا افسران عفو مشروط

حتی بحث برانگیزتر از بازار کار، دخالت هوش مصنوعی در دستگاه قضایی برای بسیاری، به‌درستی، نگران‌کننده است. احتمال این ایده که ما می‌توانیم به‌زودی در جامعه‌ای شبیه «گزارش اقلیت»– فیلمی با بازی تام کروز در سال ۲۰۰۲– زندگی کنیم بسیار کم است. در این فیلم، پلیس پیش از ارتکاب جرم قاتلان، از فناوری پیشگو برای دستگیری و محکوم کردن آن‌ها استفاده می‌کند؛ اما ما در حال حاضر استفاده از یادگیری ماشینی در تصمیم‌گیری در خصوص اعطای آزادی مشروط به یک زندانی یا [امکان گذاشتن] وثیقه به مظنون را شاهدیم.

نیوجرسی در سال ۲۰۱۴، با تشویق موسسه عدالت پیش از محاکمه (پی‌جی‌آی)، ارزیابی ریسک الگوریتمی را تصویب کرد. اما موسسه پی‌جی‌آی از آن زمان، این روند را معکوس کرد و گفت که این الگوریتم در واقع بی‌عدالتی نژادی را افزایش داده است. تنیل پترسون، یکی از شرکای اجرایی، به وایرد (Wired) گفت: «ما در حوزه‌های قضایی که از این ابزار استفاده می‌کنند و کاهش جمعیت زندان‌ها را شاهد بودند، دیدیم که نتوانستند کاهش نابرابری‌ها را شاهد باشند و در برخی موارد افزایش نابرابری‌ها مشاهده شد.»

با این حال، وقتی به پلیس‌های میدانی و حاضر در صحنه می‌رسیم، مجموعه‌ای از مشکلات دیگر وجود دارند که باید بررسی شوند. کانیتزر یادآور می‌شود که هوش مصنوعی می‌تواند برای ایجاد مسیرهای گشت پلیس بر اساس آمار جرم و جنایت استفاده شود– که مشکلات خاص خود را دارد: «اگر تنها راهی که متوجه می‌شوید جرمی در حال وقوع است، در درجه اول فرستادن خودروهای پلیس به آنجا‌ است، می‌تواند این طور باشد که داده‌های قبلی که شما دارید، محله‌های خاصی را بیش از حد نشان می‌دهد؛ چرا که آنجا جایی است که شما خودروهای پلیس را می‌فرستید و می‌توانید به یک چرخه معیوب پلیس مازاد وارد شوید که در جریان آن، ما به کشف جرائم در آنجا ادامه می‌دهیم؛ به این دلیل که خودروهای پلیس را به آنجا می‌فرستیم.»

وقتی رایانه‌ها درباره درمان بیمارستانی شما تصمیم می‌گیرند

و اگر هوش مصنوعی شما را به چنگ قانون نیندازد، ممکن است به اقامت بعدی‌ شما در بیمارستان رسیدگی کند؛ کانیتزر می‌گوید: «شاید مواردی وجود داشته باشد که بخواهید یک بیمار را بر بیمار دیگر اولویت دهید که به این پرسش منجر می‌شود: به چه دلیل اولویت‌بندی آن‌ها درست است؟»

«آیا باید فردی را که جوان‌تر است در اولویت قرار دهید؟ در غیر این صورت، آیا باید به کسی که کمتر بیمار است، اولویت بدهید؟»

بیمارستان‌ها در حال حاضر این کار را با استفاده از تخصص انسانی انجام می‌دهند– اما واگذاری چنین تصمیم‌گیری به نرم‌افزار واقعا خطرها را افزایش می‌دهد. این مسئله سبب شده است تا کارشناسانی مانند کانیتزر بررسی کنند افراد چگونه فکر می‌کنند و اینکه آیا می‌توان در وهله اول، یک سیستم بی‌طرف و بدون نظر شخصی ایجاد کرد یا نه. او مانند بسیاری از همکاران دانشگاهی خود که کار خود را در علوم رایانه‌ای شروع کردند، اکنون نیمی از زمانش را در بخش فلسفه کار می‌کند.

کانیتزر و دیگران در مقاله‌ای در سال ۲۰۲۲،  بررسی کردند که بر اساس افکارعمومی بریتانیا از نظر اخلاقی، کدام ویژگی‌های بیماران در رده‌بندی و اولویت‌بندی استفاده از دستگاه تنفس مصنوعی مناسب و موجه‌اند. سه ویژگی اصلی که افراد گفتند باید علیه دسترسی به دستگاه تنفس مصنوعی حساب شوند، این‌ها بودند: فرد در گذشته مرتکب جنایات خشونت‌آمیز شده باشد، در فعالیت‌هایی غیرضروری با خطر بالای ابتلا به کووید–۱۹ درگیر شده باشد و شانس زنده ماندن کم باشد.

کانیتزر توضیح می‌دهد: «ما نمی‌خواستیم پاسخ‌ به این پرسش‌ها را در معرض رای بگذاریم، اما می‌خواستیم فرایندی ارائه کنیم که چگونه می‌توانید بفهمید تابع هدف چگونه باید باشد؛ به‌ طوری که بتوانید آن را در عمل در یک سیستم هوش مصنوعی اجرا کنید. 

مقاله‌ای در مجله اتیکس هشدار داد که به طور کامل خودکار کردن فرایند ممکن است «انسان‌زدایی» باشد؛ هرچند استفاده از هوش مصنوعی برای تکمیل فرایند تصمیم‌گیری انسانی قابل‌قبول تلقی شد.

در نظر گرفتن ارزش‌های خود بیماران نیز ممکن است مهم باشد. کاتلین کریل، متخصص اخلاق و عضو موسسه هوش مصنوعی انسان‌محور استنفورد، گفت که پردازش هوش مصنوعی می‌تواند مانند رادیو تنظیم شود تا رویکرد‌های بیمار را منعکس کند. سیستمی را تصور کنید که در آن، الگوریتمی مبتنی بر هوش مصنوعی تصمیم‌های پزشکی را توصیه می‌کند. هر بیمار می‌تواند با توجه به نیازها و باورهای فردی خود به پرسش‌های خاصی پاسخ دهد؛ از جمله: «آیا ترجیح می‌دهید برای درمان یک تومور خوش‌خیم ریسک عوارض جراحی را به جان بخرید تا خطر نادیده گرفتن تومور سرطانی را؟» سپس سیستم متناسب با آن‌ها تنظیم می‌شود. به فردی که ترجیح می‌دهد هر بار تحت عمل جراحی قرار گیرد، روش‌های تهاجمی بیشتر توصیه خواهد شد. برای کسی که به‌وضوح به سیستم گفته است که رویکردی بدون دخالت و دست زدن [به تومور] را ترجیح می‌دهد، راه‌حل‌های کمتر تهاجمی برای مشکلات سلامتی در اولویت قرار خواهد داد.

کریل می‌گوید: «بیماران شایسته آن‌اند که ارزش‌هایشان در این بحث و در الگوریتم‌ها منعکس شود. افزودن درجه‌ای از حمایت از بیمار گامی مثبت در تکامل هوش مصنوعی در زمینه تشخیص پزشکی خواهد بود.»

شاید بشود استدلال کرد که به کارگیری چنین سیستم‌هایی در یک محیط پزشکی ایده خوبی است. با همه این اوصاف، چرا باید تنها به قضاوت یک پزشک تکیه کنیم و نه بر دانش انباشتی هزاران [پزشک] که از طریق یک سیستم مبتنی بر هوش مصنوعی ارائه می‌شود؟

آیا هوش مصنوعی می‌تواند هنرمند باشد؟

در عرصه‌های دیگر، ما احتمالا کارها را کمتر به ماشین‌ها واگذار می‌کنیم. هنر هنوز به عنوان قلمرو انسان، به چشم یک گریز و یک ماجراجویی اساسا انسانی دیده می‌شود. آیا می‌توان هنر را به طور معناداری با هوش مصنوعی خلق کرد؟

این هفته، از خدمات تولید تصویر اوپن‌ای‌آی به نام «دال‌–ئی» (DALL-E) خواستم تصاویری از شهرها و شهرک‌های مختلفی که در آن‌ها زندگی کرده‌ام، به سبک هنرمندان مختلف ایجاد کند. دال‌–ئی ساوت شیلدز را به سبک ادوارد هاپر، لستر را از نگاه کاراواجو، لندن را به سبک دیوید هاکنی و نیویورک سیتی را به سبک روتکو نقاشی کرد. باحال به نظر می‌رسید. توییتش کردم.

مدام در این فکر بودم که از دال‌–ئی بخواهم از مکان‌هایی که در آن زندگی کرده‌ام، به سبک هنرمندان مختلف تصویر بسازد.

ساوت شیلدز – ادوارد هاپر
چیزیک – دیوید هاکنی
لستر – کاراواجو
ادینبرا – پیکاسو

– دیوید مک‌لین (@GeordieStory) ۹ دسامبر ۲۰۲۲


این‌ها تقلید بودند؛ هرچند تقلیدهایی هوشمندانه اما به هر حال تقلید بودند. تصور چنین دنیایی سخت است که در آن، هنر اصیل هر چند زیبا، اگر تولید هوش مصنوعی باشد، ارزش بیشتری دارد تا زمانی که یک فرد آن را تولید کرده باشد. بخشی از لذت و فهم و ارج‌ نهادن به یک نقاشی مسلما نحوه ارتباط ما با هنرمند است.

کانتیزر مشکل دیگری را پیش‌بینی می‌کند: اتهام اندیشه‌دزدی یا محتواربایی. اگر بتوان هر سبکی را با کلیک یک دکمه کپی کرد، وقتی  هوش مصنوعی بتواند آن را یاد بگیرد و با یک تک‌کلیک بازتولید کند، آیا سال‌ها تلاش یک نفر برای بهبود کار خود، چه نقاشی باشد، چه سبک کتاب کمیک، چه طراحی دیجیتال یا انیمه باشد، نابود می‌شود؟ سال‌ها تلاش یک نفر برای بهبود کار خود، چه نقاشی باشد، یک سبک کتاب کمیک، طراحی دیجیتال یا انیمه نابود می‌شود. «شما همچنین می‌توانید از یک انسان بخواهید که به سبک یک نفر نقاشی کند، درست است؟ من فکر می‌کنم این چیزی است که ما به‌طور کلی آن را خوب می‌دانیم، اما نوعی پرسش وجود دارد: [دال‌ئی] واقعا چقدر کپی می‌کند؟ من فکر می‌کنم که اینک، قوانین ما واقعا برای این موضوع وضع نشده‌اند.»

گالری بیت‌فرم‌های استیون ساکس در شهر نیویورک این ماه نمایشگاهی دارد که منحصرا آثاری را که با هوش مصنوعی یا با الهام از هوش مصنوعی خلق شده‌اند، به نمایش می‌گذارد. او به سی‌ان‌ان گفت که هوش مصنوعی یک «شریک عالی باخلاقیت» است و به  سانفرانسیسکو استاندارد افزود: «من فکر می‌کنم مبنای دال‌ئی غافلگیر کردن است. زمانی که به این فکر می‌کنید که دال‌ئی چگونه تنها با استفاده از عبارات کلیدی برگرفته شده از هنرمند، خلق شده است، همه‌چیز خیلی فوق‌العاده است.»

اما در ازای هر آدم پرشوق‌وذوق مانند ساکس، تعدادی افراد بدبین وجود دارند. به‌ویژه هنرمندان دیجیتال با این استدلال که معیشت آن‌ها در معرض تهدید قرار گرفته است و از طریق تقلید الگوریتمی، آثارشان عملا دزدیده می‌شود، با استفاده از هوش مصنوعی در ساخت تصویر مخالفت کرده‌اند.

یکی از هنرمندان دیجیتال به بازفیدنیوز گفت: «هنرمندان هنر هوش مصنوعی را دوست ندارند، زیرا این برنامه‌ها به شکلی غیراخلاقی با استفاده از پایگاه‌های داده هنری متعلق به هنرمندانی آموزش داده ‌می‌شوند که این هنرمندان اجازه و موافقت خود [برای حق استفاده از آن] را اعلام نکرده‌اند. این در مورد دزدی است.»

کانیتزر فکر نمی‌کند که هوش مصنوعی لزوما به‌تنهایی تولید چیزی را که ما به عنوان هنر می‌شناسیم شروع کند اما «من قطعا فکر می‌کنم که افراد همراه با هوش مصنوعی قادر خواهند بود هنر تولید کنند.» او می‌افزاید که ما قرن‌ها درباره کمک‌های فناوری به هنر بحث‌هایی داشتیم: «عکاسی؛ احتمالا یک واکنش اولیه به عکاسی وجود داشت. شما فقط کلیک می‌کنید و درست در همان لحظه طبیعت را مشاهده می‌کنید. این طبیعت است که کار را انجام می‌دهد. این شما نیستید که کار را انجام دهید... و من فکر می‌کنم اینجا هم مشابه همین است.»

«من فکر می‌کنم تا اندازه‌ای، کاملا واضح است که شما واقعا می‌توانید با آگاه بودن در خصوص نحوه استفاده از این سیستم‌ها و چیدن چیزی کنار هم، هنر خلق کنید.»

کانتیتزر می‌گوید اما پس از آن، چقدر از اعتبار این کار را بابت کمک به هوش مصنوعی می‌دهید؟ کانیتزر می‌گوید: «ما به دوربین همراه با عکاس اعتبار نمی‌دهیم، از آنجایی که شاهد آنیم که کمی از اعتبار کار به سیستم هوش مصنوعی داده می‌شود» به ناچار، به پرسش خودآگاهی و توانایی احساس و ادراک بازمی‌گردیم.

ایلان ماسک که دیگر عضو هیئت مدیره اوپن‌ای‌آی نیست، رسما اعلام کرده بود که اعتمادش به این شرکت از نظر امنیت در زمانی که آنجا بود، «بالا» نبود. او اخیرا اعتراف کرد که چت‌جی‌پی‌تی «خیلی خوب» است اما هشدار داد: ما با هوش مصنوعی قوی و خطرناک فاصله چندانی نداریم.

کانیتزر پیشنهاد می‌کند که تصمیم‌گیری در خصوص اینکه چگونه یک هوش مصنوعی انسانی شده است به هیچ فردی بستگی ندارد. او آن دسته از مسائل فلسفی مربوط به فردیت در آینده را پیش‌بینی می‌کند: «حتی اگر ما پژوهشگران هوش مصنوعی و شاید فیلسوفان موافق باشیم که این چیزها احتمالا آگاهانه نیستند، افراد دیگر ممکن است آشکارا شروع به مخالفت کنند و بگویند، خب، ببین این چطور با من حرف می‌زند. من واقعا نمی‌توانم باور کنم که اکنون با یک موجود آگاه صحبت نمی‌کنم.» او پیشنهاد می‌کند که در این نوع بحث‌ها، هیچ یک از طرفین به‌روشنی درست یا نادرست نخواهند بود. اگر بخواهیم مشارکت معناداری داشته باشیم، باید با بودن در ناحیه بینابینی و خاکستری راحت باشیم.

© The Independent

بیشتر از تکنولوژی