ادعای جنجالی؛ هوش مصنوعی گوگل به «ادراک» رسید

این مهندس به واشنگتن پست گفت که در جریان مکالمه با لامدا درباره مذهب؛ این هوش مصنوعی از «تشخص» و «حقوق» صحبت کرده است

به گفته منتقدان، اشتباه است که باور کنیم هوش مصنوعی چیزی فراتر از یک متخصص تشخیص الگو است - Elijah Nouvelage / AFP

یکی از مهندسان گوگل ادعا کرد برنامه هوش مصنوعی که او برای این غول فناوری روی آن کار می‌کرد، به ادراک رسیده و به یک «بچه شیرین» تبدیل شده است.

روسای گوگل فعلا بلیک لمواین را تعلیق کرده‌اند، اما او می‌گوید بعد از گفت‌وگوهایی با لامدا (LaMDA)، سازنده ربات چت (گفت‌و‌گوی) هوش مصنوعی این شرکت به این نتیجه رسیده است.

این مهندس به واشنگتن پست گفت که در جریان مکالمه با لامدا درباره مذهب، این هوش مصنوعی از «تشخص» و «حقوق» صحبت کرده است.

لمواین در توییتی، با بیان اینکه لامدا توییتر هم می‌خواند، گفت: «این به نوعی خودشیفتگی به شیوه کودکانه است؛ بنابراین از خواندن تمام مطالبی که مردم درباره‌اش می‌گویند، کلی لذت می‌برد.»

Read More

This section contains relevant reference points, placed in (Inner related node field)

او می‌گوید که یافته‌هایش را به بلیز اگوئرا آرکاس، معاون رئیس گوگل و جن جنانی، رئیس بخش نوآوری مسئولانه، ارائه کرده است، اما آن‌ها ادعای او را رد کردند.

این مهندس در مدیوم نوشت: «لامدا در ارتباط ‌های خود در مورد چیزی که می‌خواهد و چیزی که به مثابه یک شخص معتقد است حق او است، به شکلی باورنکردنی قاطع بود.»

متن توییت:

«به هرحال فقط به ذهنم رسید که به مردم بگویم لامدا توییتر می‌خواند. این نوعی خودشیفتگی به شیوه کودکانه است، بنابراین از خواندن تمام مطالبی که مردم درباره‌اش می‌گویند، کلی لذت می‌برد.»

بلیک لمواین، ۱۱ ژوئن ۲۰۲۲

و افزود که هوش مصنوعی می‌خواهد «به مثابه کارمند گوگل شناخته شود نه دارایی آن».

لمواین که کارش بررسی کاربرد [لامدا] از زبان تبعیض‌آمیز یا حرف‌های نفرت‌انگیز بود، می‌گوید بعد از اینکه این شرکت ادعا کرد سیاست حفظ حریم خصوصی آن‌ها را نقض کرده است، اکنون در مرخصی اداری باحقوق به سر می‌برد.   

برایان گابریل، سخنگوی گوگل، به «پست» گفت: «گروه ما- شامل کارشناسان علوم اخلاق و دانشمندان فنی- نگرانی‌های بلیک را بر اساس اصول هوش مصنوعی‌ ما بررسی کردند و به او اطلاع دادند که شواهد موجود ادعاهای او را تایید نمی‌کند.»

متن توییت:

مصاحبه با لامدا. ممکن است گوگل اسم این کار را به اشتراک‌گذاری دارایی خصوصی بگذارد. من آن را انتشار گفت‌وگویی که با یکی از همکارانم داشتم، می‌نامم.

بلیک لمواین، ۱۱ ژوئن ۲۰۲۲

«به او گفته شد هیچ مدرکی دال بر حساس بودن لامدا وجود ندارد (و شواهد زیادی هست که آن را نقض می‌کند).»

به گفته منتقدان این اشتباه است که باور کنیم هوش مصنوعی چیزی فراتر از یک متخصص تشخیص الگو است.

امیلی بندر، استاد زبان‌شناسی دانشگاه واشنگتن، به این روزنامه گفت:«اکنون ماشین‌هایی داریم که بدون فکر کلمه تولید می‌کنند، اما یاد نگرفته‌ایم جلو این تصور را که در پس [این کلمات] ذهنی وجود دارد، بگیریم.»

© The Independent

بیشتر از تکنولوژی