به گزارش خبرگزاری فرانسه، دانشمندان روز دوشنبه اعلام کردند روشی یافتهاند که به کمک آن میتوانند با استفاده از اسکن مغزی و مدلسازی هوش مصنوعی، «چکیده» آنچه را افراد به آن فکر میکنند، آوانویسی [نوشتن نمادهای آوایی زبان] کنند. این روش گامی به سوی ذهنخوانی توصیف شده است.
در حالی که هدف اصلی رمزگشایی زبان کمک به افرادی است که توانایی برقراری ارتباط را از دست دادهاند، دانشمندان آمریکایی اذعان کردهاند که این فناوری در مورد «حریم شخصی ذهن» سوالاتی را پیش کشیده است.
آنها با هدف کاهش چنین ترسهایی، آزمایشهایی انجام دادند که نشان میداد رمزگشایی آنها نمیتواند در اسکنر تصویربرداری تشدید مغناطیسی عملکردی، افامآرآی (fMRI) روی فعالیت مغزی افرادی که اجازه این بررسی را نداده بودند، ساعتهای طولانی به کار رود.
پژوهشهای قبلی نشان دادند که ایمپلنت مغزی [کاشت اجزای مصنوعی در مغز] میتواند افرادی را که دیگر نمیتوانند صحبت یا تایپ کنند، قادر کند کلمات یا حتی جملات را هجی کنند. این «رابط مغز و کامپیوتر» بر بخشی از مغز تمرکز میکند که هنگام تلاش برای تشکیل کلمات، دهان را کنترل میکند.
الکساندر هات، عصبشناس دانشگاه تگزاس در آستن و یکی از نویسندگان مطالعه جدید، گفت که رمزگشایی زبان گروه او «در سطح بسیار متفاوتی کار میکند». هات در یک کنفرانس مطبوعاتی آنلاین اعلام کرد: «سیستم ما واقعا در سطح ایدهها، معناشناسی و معنا کار میکند.»
بر اساس مطالعه منتشرشده در مجله علوم اعصاب طبیعت (Nature Neuroscience) این اولین سازوکاری است که قادر به بازسازی زبان پیوسته بدون ایمپلنت مغزی تهاجمی است.
Read More
This section contains relevant reference points, placed in (Inner related node field)
عمیقتر از زبان
برای این مطالعه، سه نفر در دستگاه افامآرآی در مجموع ۱۶ ساعت را به گوش دادن به داستانهای روایی صوتی، عمدتا پادکستهایی مانند عشق مدرن نیویورک تایمز، صرف کردند. این کار به محققان فرصت داد جزئیات این موضوع را بفهمند که چگونه کلمات، عبارات و معانی واکنشهایی را در مناطقی از مغز که برای پردازش زبان شناخته شدهاند، تحریک میکنند.
آنها این دادهها را به یک مدل زبانی شبکه عصبی وارد کردند که از جیپیتیــ۱ (GPT-1) استفاده میکرد؛ یعنی فناوری هوش مصنوعی پیشین که بعدا در چت جیپیتی (ChatGPT) معروف جایگزین شد.
این مدل برای پیشبینی نحوه واکنش مغز هر فرد به گفتار درکشده، آموزش داده شد. سپس گزینهها را محدود کرد تا نزدیکترین پاسخ را پیدا کند. بعد برای آزمایش دقت مدل، هر یک از شرکتکنندگان به داستان جدیدی در دستگاه افامآرآی گوش کردند.
اولین نویسنده این مطالعه، جری تانگ، گفت که رمزگشا میتواند «محتوای چیزی را که کاربر میشنود، بازیابی کند». به عنوان مثال، هنگامی که شرکتکننده عبارت «من هنوز گواهینامه رانندگی ندارم» را شنید، مدل عبارت «او هنوز شروع به یادگیری رانندگی نکرده است» را ساخت.
محققان اذعان کردند که رمزگشا با ضمایر شخصی مانند من یا او مشکل داشت؛ اما حتی زمانی که شرکتکنندگان به داستانهای خود فکر میکردند یا فیلمهای صامت میدیدند، رمزگشا همچنان میتوانست «خلاصه» آن را درک کند.
این موضوع نشان داد که «ما در حال رمزگشایی چیزی عمیقتر از زبانایم، سپس آن را به زبان تبدیل میکنیم».
به گفته هات، از آنجایی که اسکن افامآرآی برای ثبت کلمات منفرد بسیار کند است، «مجموعه درهمبرهمی از اطلاعات را ظرف چند ثانیه جمعآوری میکند». از این رو ما میتوانیم ببینیم که این ایده چگونه تکامل مییابد؛ حتی اگر کلمات دقیق وجود نداشته باشند.
هشدار اخلاقی
دیوید رودریگزــآریاس وایلن، استاد اخلاق زیستی در دانشگاه گرانادای اسپانیا که در این تحقیق شرکت نداشت، گفت که این امر فراتر از آن چیزی پیش رفته است که رابطهای قبلی مغز و کامپیوتر به دست آورده بودند.
او گفت که این ما را به آیندهای نزدیک میکند که در آن ماشینها میتوانند «ذهنها را بخوانند و افکار را آوانویسی کنند» و هشدار داد که این امر ممکن است برخلاف میل افراد اتفاق بیفتد؛ مانند زمانی که آنها خواباند.
محققان چنین نگرانیهایی را پیشبینی کردهاند. آنها آزمایشهایی انجام دادند که نشان میداد اگر رمزگشا پیشتر در مورد فعالیت مغزی خاص خود آموزش ندیده باشد، روی یک فرد کار نمیکند.
سه شرکتکننده هم توانستند رمزگشا را بهراحتی از کار بیندازند. هنگام گوش دادن به یکی از پادکستها، به کاربران گفته شد که هفت تا هفت تا بشمارند، حیواناتی را نام ببرند و تصور کنند یا داستان متفاوتی در ذهن خود تعریف کنند. به گفته پژوهشگران، تمام این روشها رمزگشا را از کار انداختند.
این گروه در مرحله بعد امیدوار است که این روند را سرعت بخشد تا بتواند اسکنهای مغز را در زمان واقعی رمزگشایی کنند.
آنها همچنین خواستار قوانینی برای محافظت از حریم شخصی ذهن شدند.
رودریگزــآریاس وایلن، متخصص اخلاق زیستی، گفت: «ذهن ما تاکنون حافظ حریم شخصی ما بوده است. این کشف میتواند اولین گام برای به خطر انداختن این آزادی در آینده باشد.»