اگر شرکت‌ها به حریم خصوصی بی‌توجهی می‌کنند، کنارشان بگذاریم

حریم خصوصی ما معامله‌­شدنی نیست: «جای دیگری خواهیم رفت»

NICOLAS ASFOURI / AFP

یکی از فاحش‌ترین مشکلات طرح کمیتۀ دیجیتال، فرهنگ، رسانه و ورزش مجلس که نادیده گرفته شد این بود که به شرکت کانادایی   اگرگیت‌آی‌کیو اجازه داد برای بررسی تصاویر افراد از هوش مصنوعی استفاده کند. 

نرم‌افزار این شرکت می‌تواند عکس افراد را اسکن کرده، با عکس حساب کاربری فیس­بوکشان مقایسه کند. همین حالا احتمال دارد که از عکس شما هم در سراسر اینترنت در شبکه‌های متفاوت و در موقعیت‌های گوناگون استفاده ‌شود تا تصویری از شخصیت مجازی شما به دست آید. چهرۀ انسان بسیاری چیزها را دربارۀ او عیان می‌کند: نژاد، جنسیت، سن، وزن، و از همه‌ مهم‌تر، با بررسی آن در شبکه‌های گوناگون می‌توان به راحتی عقاید و علایقش فرد را دریافت. و وقتی کار به حساب‌‌­های کاربری فرد در شبکه‌های اجتماعی برسد، دری به روی پسندهای فرد، روحیه‌ و مکان جغرافیایی‌ در هر زمان باز خواهد بود.

دقیقاً به همین علت باید بابت استفادۀ شرکت خصوصی ساختمان‌ساز آرجنت (Argent) از فناوری تشخیص چهره نگران باشیم. این شرکت پروژه‌هایی متعدد را در فضایی به مساحت ۶۷ هکتار در مرکز لندن در دست دارد و معلوم نیست اصلاً چرا باید از این فناوری مناقشه‌برانگیز استفاده کند. در هر حال، این شرکت ساختمان‌سازی اکنون چهرۀ ده‌ها هزار نفر از شهروندان از همه‌جا بی‌خبر لندن را اسکن و ضبط کرده است.

چهرۀ خریداران بی‌گناه و گردشگرانی که از مرکز فروش زیبای جدید در کول دراپس یارد دیدار می‌کنند نیز ممکن است ناخواسته اسکن چهره شده، بدون رضایتشان در بانک اطلاعاتی ضبط شود. 

فناوری تشخیص چهره این فرضیه را به کل کنار گذاشته است که همه بی‌گناه­اند تا زمانی که خلافش ثابت شود. پلیس برای بازرسی شما نیاز به ”ظن معقول“دارد، هرچند این هم باعث جلوگیری از سوءاستفاده از قدرت نشده است، ولی تشخیص چهره یعنی چهرۀ شما اسکن خواهد شد، چه خلافی کرده باشید و چه نکرده باشید.

دنیای جدید آمیخته به فناوری تشخیص چهره ترسناک به نظر می‌رسد. اکنون دولت چین تشخیص چهره را به منزلۀ بخشی از طرح تمامیت‌خواهانه‌­اش برای کنترل کامل افکار و اندیشۀ شهروندان خود به کار گرفته است. شیائولین وو و شی ژانگ در تحقیق خود با نام «مبارزۀ خودکار با جرم از طریق تصاویر چهره» ادعا می‌کنند می‌توانند برنامه‌ای بنویسند که از طریق بررسی ویژگی‌های چهره افراد، اشخاص مجرم را تشخیص دهد. این ویژگی‌های چهره چیستند؟ «میزان خمیدگی لب، فاصلۀ دو گوشۀ داخلی چشم‌ها از یکدیگر، و زاویۀ بین بینی و دهان».

چین پیشتاز طراحی خودکامۀ طرح‌های اجتماعی با استفاده از فناوری روز است، از جمله طرح امتیاز اجتماعی که از فناوری تشخیص چهره و دوربین‌های مداربسته استفاده می‌کند تا امتیاز اجتماعی اشخاصی با تخلفات جزیی از قوانین کمونیسم را کاهش دهد. این تخلفات شامل اموری مانند قرار دادن پا روی صندلی مترو هم می‌شود، چه برسد به نقد دولت خودکامۀ چین.

بگذارید رُک باشم. این فناوری برای سیاه‌پوستان بسیار بیشتر مشکل‌آفرین خواهد بود. یک شرکت تازه تاسیس متمرکز بر تشخیص چهره با نام فیسپشن (Faception) در وبسایت خود ادعا می‌کند: «ما تشخیص‌دهنده‌هایی اختصاصی طراحی می‌کنیم که هر کدام یکی از ویژگی‌های شخصیتی انسان یا رفتار او را توصیف می‌کند، ویژگی‌ها و رفتارهایی نظیر برون‌گرایی، باهوش بودن، بازیکن حرفه‌ای پوکر بودن، یا حتی تهدیدکنندگی فرد». 

این عقیده که چهرۀ ما نشان­دهندۀ میزان هوش یا مجرم بودن ماست یادآور تحقیقات شدیداً‌ مناقشه برانگیز است که در گذشته صورت گرفته است، به ویژه «دانش» شدیدا نژادپرستانۀ چهره‌خوانی (physiognomy) در دوران ویکتوریا. سزار لابروزو، یکی از مدافعان جدی چهره‌خوانی به الهام فکری فاشیست‌ها در ایتالیا و نازی‌ها در آلمان تبدیل شد. آنان به افکار او جامۀ عمل پوشاندند و بنا به برنامه‌های شوم آنان برای نسل‌کشی و اصلاح نژادی، چهره و در نتیجه نژاد می‌توانست حاکی از مجرم بودن فرد باشد.

در عمل هم شاخص‌های نژادپرستانۀ این فناوری آشکارا واقعی است. در برنامۀ تشخیص چهره­ای که پلیس نیز از آن استفاده می‌­کند دیدیم که رئیس‌ سابق این طرح در پلیس بریتانیا نیز می‌دانست مسئلۀ نژاد مشکل جدی این فناوری است. در جشنواره ناتینگ هیل در سال‌های ۲۰۱۷ و ۲۰۱۸ و در یک مراسم یادبود روز یکشنبه، فناوری تشخیص چهره بیش از صدها تشخیص اشتباه داشت، ولی حتی منجر به یک بازداشت هم نشد. 

سیلکی کارلو، دبیر کارزار «برادر بزرگ شما را می­بیند» که پرچم مبارزه با این فناوری خطرناک را بلند کرده است، گفت: «کوتاهی پلیس از انجام آزمایشی ساده و مقدماتی برای تطبیق صحت یافته‌های این فناوری بر اساس نژاد به اندازه کافی گویاست. نادیده‌انگاری عامدانۀ خطر نژادپرستی و خطری که این فناوری برای حقوق همۀ شهروندان بریتانیایی دارد، نشانۀ روش خطرناک و غیرمسئولانه‌ای است که فناوری تشخیص چهره بر اساس آن به کار گرفته شده و خیابان‌های ما را پر کرده است».

شرکت‌ها معمولاً ضعیف‌ترین عاملان حفاظت از حریم شخصی ما هستند. چرا باید آرجنت، که فقط مالک زمین است، علیه درخواست پلیس برای تسلیم بانک اطلاعاتی تشخیص چهرۀ خود مقاومت کند؟ در سال‌های اخیر شاهد بوده‌ایم که چگونه شرکت‌های عظیمی نظیر ‌ای‌ای (EE)، ودافون (Vodafone)، و تیری (Three) به پلیس اجازۀ دسترسی به بانک اطلاعاتی مشترکان‌شان را دادند. چه تضمینی وجود دارد که آرجنت تصویر چهرۀ هزاران نفر از افراد بی‌گناه را تسلیم پلیس لندن نکند تا از آن برای تقسیم‌بندی نژادی یا مطالعۀ رفتار انسانی استفاده شود؟ آرجنت طی بیانیه‌ای اظهار داشت: «این دوربین‌ها از چند روش مختلف ردیابی و تشخیص، از جمله تشخیص چهره، استفاده می‌کنند ولی همچنین سیستمی پیچیده برای حفاظت از حریم خصوصی همۀ مردم دارند.“راست می‌گویی! بدون تضمین قانونی و شفافیت دربارۀ اینکه از این بانک اطلاعات چگونه استفاده می‌شود، چطور می‌توانیم از آنچه واقعاً اتفاق می‌افتد باخبر باشیم؟

همچنان­ که گروه حقوق آزاد (Open Rights Group) به من گفت، استفاده از بانک اطلاعاتی پلیس در خصوص تشخیص چهرۀ افرادی که در تظاهرات‌ صلح‌آمیز شرکت کرده‌اند نیز به شدت نگران‌کننده است؛ تظاهراتی نظیر شورش برای انقراض یا تجمعات اتحادیه‌های کارگری. همچنین، اگر شرکت‌ها نیز بانک اطلاعاتی خود را در اختیار بگذارند، پلیس دسترسی هم­زمان و دقیقی به جابه­جایی­ها و همۀ اعمال شهروندان کاملاً بی‌گناه دارد.

می‌دانیم که شرکت‌ها به فشار افکار عمومی پاسخ می‌دهند. اگر به آزادی اهمیت می‌دهید، به مغازه‌های فروشگاه کول دراپس یارد بگویید خوشتان نمی‌آید که چهره‌تان را مدام ضبط می‌کنند. برای خرید به فروشگاه‌هایی بروید که از چهره شما فیلم‌برداری نمی­‌کنند. در یک جامعه باز، ما در مقام شهروندان و مشتریان می‌توانیم پیامی روشن به شرکت‌هایی بفرستیم که می‌پندارند حریم خصوصی ما کالایی معامله‌­شدنی است: «جای دیگری خواهیم رفت».

https://www.independent.co.uk/voices

 

دیدگاه‌ و نظرات ابراز شده در این مقاله، نظر نویسنده بوده و سیاست یا موضع ایندیپندنت فارسی را منعکس نمی‌کند.

© The Independent

بیشتر از دیدگاه