سیری، دستیار صوتی اپل، جنسیت زده است

سیری در آن واحد، مطیع، فرمانبردار، منشی و یک زن خانه‌دار است

یک گزارش سازمان ملل متحد، آنچه را بسیاری از ما به آن شک داشتیم، تایید کرد: دستیاران مجازی که تصویر زن را القاء می‌کنند، عامل ترغیب ایده‌آل‌های جنسیت گرایی‌ هستند. این گزارش، خصوصا «الکسا»ی آمازون و «سیری» اپل را مورد بررسی قرار داده که هر دو به عنوان «زن» به بازار عرضه شده‌اند.

چند لحظه‌ای را به توضیح واضحات اختصاص بدهیم: البته که ماشین، جنسیتی ندارد. «سیری» از یک لپ تاپ یا خودرو مونث‌تر نیست. اما تمام هدف هوش مصنوعی، ایجاد یک ذهن انسانی و کُدی در آن است که مثل انسان به آن توانایی فراگیری بدهد. این موسسات می‌خواهند شما به محصولاتشان احساس وابستگی کنید و با آنها به گونه‌ای رفتار کنید که بیش از سایر فرآورده‌های تکنولوژی به بشر نزدیک باشند. به همین دلیل آنها را به کد جنسیت مجهز کردند.

تنها می‌توانیم در مورد انگیزه این سه شرکت عظیم تکنولوژی («دستیار» گوگل موضوع مطالعه این گزارش نبوده، اما روی آن هم صدای زن گذاشته شده است) برای گذاشتن صدای زن به روی ربات‌های اطلاعاتی گمانه زنی کنیم. اما می‌دانیم که این تصمیم سرسری گرفته نشده است. این ماشین‌ها به گونه‌ای طراحی شده‌اند که بیست و چهار ساعت شبانه روز، هر نیازی دارید از خوشحال کردن تا رزرو سفرهایتان، در اختیارتان باشند. نقششان جایی میان یک دستیار خصوصی، یک منشی و یک خانه دار است که همه به شکل سنتی با نقش جا افتاده زن تداعی می‌شود. باید توجه کرد که ایفای این نقش‌ها مستلزم تحمل بار عاطفی و بازده اندک است.

یک سخنگوی مایکروسافت در مورد «کورتانا»، دستیار مجازی ویندوز (که موضوع این گزارش نیست) به نشریه «پی سی مگ» گفت: «انتخاب صدای زن عمدی بوده تا تصویر یک «دستیار معتمد، مفید و حامی» را به وجود بیاورد».

اگر یکی از این محصولات را امتحان کرده باشید، می‌دانید که آنها آنقدرها که مخترعین‌شان می‌گویند مفید نیستند. اگر دستوری را با فریاد به «الکسا» بدهید، می‌گوید: «ببخشید، متوجه منظورتان نشدم»؛ اگر از «سیری» سئوالی بپرسید که درست عبارت بندی نشده، می ببینید چطور پاسخ‌های عجیب و غیرمنطقی به شما می‌دهد. این را با «واتسون» آی‌بی‌ام مقایسه کنید که برای درمان بیماری سرطان و پیروزی در بازی «جپردی» برنامه ریزی شده و با صدای مرد صحبت می‌کند. این ممکن است عمدی نباشد، اما تصادفی هم نیست.

این گونه است که هوش مصنوعی حقوق زن را از بین می‌برد.

زنان هم اکنون نیز باید دو برابر مردها کار کنند تا توانایی‌هایشان به اندازه نیمی از آنها پذیرفته شود. این تبعیضی ناخودآگاه است که به خاطر تمام موارد تبعیض جنسی که در اطرافمان در جهان غرب می‌بینیم، از جمله نبود رهبر زن، در همه ما وجود دارد. همه ما تحت نفوذ این گونه پیام‌ها هستیم و تا زمانی که متوجه آن نشده و با آن مبارزه نکرده‌ایم، مسئول ادامه آن هستیم. به نظر می‌رسد این نکته به کلی از چشم طراحان این دستیاران مجازی پنهان بوده است؛ طراحان و مهندسانی که به گفته پژوهشگران (این گزارش) عمدتاً مرد هستند.

Read More

This section contains relevant reference points, placed in (Inner related node field)

اما مشکل تنها به تعدیل کلیشه‌های جنسیتی مطیع بودن (دستیاران مجازی) ختم نمی‌شود بلکه به واکنش نگران کننده آنها هم مرتبط است. به «سیری» بگویید فاحشه، و او با عشوه‌گری می‌گوید: «اگر می‌توانستم، سرخ می‌شدم». این واکنش به بددهنی چنان مساله برانگیز است که سازمان ملل آن را برای عنوان گزارشش انتخاب کرده است. واکنش «سیری» در این مورد چندان تغییری در این معضل نمی‌دهد وقتی می‌گوید: «برای بازخورد ممنونم».

به گفته پژوهشگران، این ماشین‌ها برای واکنش با صدای مطیع برنامه ریزی شده‌اند و واکنش‌شان در مقابل توهین، عذرخواهی و سازگاری است. به اندازه کافی بد است که چنین تصویری از زن را در فرهنگ عوام و آگهی‌های صفحه اول نشریات می بینیم که حالا صدای آن را مستقیماً در خانه‌هایمان هم بشنویم.

انتشار این گزارش با خشم کاربران در شبکه‌های اجتماعی همراه بود. مردم مشکل آن را درک نمی‌کردند و معتقد بودند در نکته‌ای عادی اغراق شده است. من این را درک می کنم که این (ماشین‌ها) نهایتاً زن نیستند، اما زنان واقعی (غیرماشینی) از اینکه به ادامه ارزش‌های جنسیت گرایانه در جامعه صحه گذاشته می‌شود، آزرده می‌شوند. به ویژه در ارتباط با محصولاتی که قرار است مترقی و بی غرضانه باشند. متاسفانه، برای آن گروه از ما که چندان (در امور اجتماعی) فعال نیستیم، جایی که زن ستیزیِ نهادینه مطرح می‌شود، یا با آن مبارزه یا در موردش اغماض می‌کنیم. اگر در این که دستیار مجازی شما در مقابل فاحشه خواندنش با طنازی پاسخ می‌دهد، ایرادی نمی‌بینید، شما خودتان بخشی از این معضل هستید.

همانند بسیاری از موارد «جنسیت گرایی ناآگاهانه» از جانب سازمان‌هایی که باید بهتر بدانند و نیز کمپین‌های بازاریابی توهین آمیز، تا عدم تساوی دستمزد میان زن و مرد، این هم نمایانگر آن است که کسانی که در مسند قدرت نشسته‌اند، عمدتاً مرد هستند.

آنها همچنین سفید پوست هستند. به همین دلیل است که نرم افزارهایی اختراع شد که با استناد به شاخص جرم و جنایت، سیاه پوستان را عامل عمده خطر عنوان کرد. در سال ۲۰۱۷، پژوهش‌ها نشان داد که زمانی که هوش مجازی به خود زبان انگلیسی یاد می‌دهد، نژاد پرست و جنسیت گرا می‌شود. آزمایش‌های ساده نشان می‌دهد که سایت ترجمه گوگل فرض را بر این قرار می‌دهد که پزشکان مرد هستند حتی اگر هیچگونه ضمیری (در زبان انگلیسی برای مرد و زن ضمایر متفاوت استفاده می‌شود) برای آن به کار برده نشود. سال گذشته، آمازون یک نرم افزار هوش مصنوعی برای استخدام افراد را از دور خارج کرد زیرا روشن شد این نرم افزار کاندیداهای مرد را به زن ترجیح می‌دهد.   

آنچه به ویژه جالب است این است که اطمینان دارم آن گروه مردهای عمدتاً سفید پوست «هتروسکسوئل» که در سانفرانسیسکو نشسته و کد این برنامه‌ها را می‌نویسند، هرگز خود را جنسیت گرا یا نژادپرست نمی‌بینند. اطمینان دارم  افرادی خوب و بسیار هوشمند هستند که به هیلاری (کلینتون) رأی داده و برای دوست دخترشان نوار بهداشتی می‌خرند. نکته همین جاست: تمایل نهادینه و ناخودآگاه به تبعیض در همه کس و در همه جا هست. تا زمانی که متوجه آن نشده و تیم‌هایی حقیقتا گوناگون به وجود نیاورده‌ایم، هرگز نخواهیم توانست چرخه برتری مرد سفید پوست را که به نظر می‌رسد در آن گرفتار هستیم، بشکنیم.

© The Independent

بیشتر از جهان