چه کسی بحث از مهره‌های سیاه و سفید شطرنج را نژادپرستانه می‌داند؟

بحث‌ آنلاین درباره مهره‌های سیاه و سفید شطرنج، الگوریتم‌های هوش مصنوعی برای تشخیص نژادپرستی را به اشتباه می‌اندازد

آنتونیو رادیچ، شطرنج‌باز کروات، ماه ژوئن در یوتیوب درحال اجرای برنامه شطرنجی با حضور استاد بزرگ هیکارو ناکامورا بود که ناگهان کانالش مسدود شد- Pixabay

بر اساس یک پژوهش جدید، بحث‌های آنلاین درباره مهره‌های سیاه و سفید شطرنج موجب گیج شدن آن دسته از الگوریتم‌های هوش مصنوعی می‌شوند که برای تشخیص نژادپرستی و سایر سخنان نفرت‌پراکنانه ساخته شده‌اند.

متخصصان علوم کامپیوتر دانشگاه کارنگی ملون، در ماه ژوئن در پی مسدود شدن یک کانال محبوب شطرنج در یوتیوب به‌دلیل محتوای «مضر و خطرناک»، تحقیقات در زمینه این ایراد فنی هوش مصنوعی را آغاز کردند.

آنتونیو رادیچ، شطرنج‌باز کروات، که با حساب کاربری آگادماتور (Agadmator) فعالیت می‌کند، صاحب محبوب‌ترین کانال یوتیوب شطرنج جهان با بیش از یک‌میلیون دنبال‌کننده است.

در روز ۲۸ ژوئن ۲۰۲۰، زمانی‌‌که رادیچ  در یوتیوب درحال اجرای یک برنامه شطرنج با حضور استاد بزرگ هیکارو ناکامورا بود، این پلتفرم متعلق به گوگل کانالش را بدون ذکر هیچ دلیلی، مسدود کرد. کانال رادیچ پس از ۲۴ ساعت به کنترل او بازگشت؛ موضوعی که موجب شد این قهرمان شطرنج حدس بزند که دلیل منع موقت فعالیت کانالش، به عبارت «سیاه دربرابر سفید» بازمی‌گردد؛ درحالی که او در آن زمان صرفا درباره شطرنج حرف می‌زده است. 

Read More

This section contains relevant reference points, placed in (Inner related node field)

سیستم تعدیل یوتیوب هم بر الگوریتم‌های انسانی و هم هوش مصنوعی متکی است. به این معنا که هر سیستم هوش مصنوعی اگر برای فهم بافت و محتوای متون به درستی آموزش ندیده باشد، ممکن است نظرات و دیدگاه‌ها را به اشتباه متوجه شود. 

آشیکار خدابخش (Ashiqur KhudaBukhsh)، متخصص پروژه در موسسه تکنولوژی زبان در دانشگاه کارنگی ملون، می‌گوید: «اگر آن‌ها در تشخیص زبان نژادپرستانه به هوش مصنوعی متکی باشند، چنین رخدادهای تصادفی ممکن است اتفاق بیفتد.»

خدابخش به‌منظور بررسی بیش از ۶۸۰هزار دیدگاه گردآوری‌شده از پنج کانال محبوب یوتیوب با موضوع شطرنج، این نظریه را با استفاده از یک طبقه‌بندی‌کننده پیشرفته زبان، مورد آزمون قرار داد.

دانشمندان پس از بررسی دستی و مرور منتخبی از یک‌هزار دیدگاه که هوش مصنوعی آن‌ها را به‌عنوان سخنان نفرت‌پراکنانه طبقه‌بندی کرده بود، دریافتند که ۸۲ درصد از آن‌ها به‌دلیل استفاده از کلماتی نظیر «سیاه»، «سفید»، «حمله» و «تهدید» -که همه از اصطلاح‌های رایج شطرنج است- به اشتباه طبقه‌بندی شده‌اند.

این مقاله همین ماه در گردهمایی سالانه انجمن پیشرفت‌های هوش مصنوعی ارائه شده است.

© The Independent

بیشتر از تکنولوژی