عصر سرکوب دیجیتال: هوش مصنوعی شکل سرکوب را عوض کرده است

استیون فلدستین/ استاد علوم سیاسی دانشگاه بوآ امریکا: اوایل سال ۲۰۱۸ یکی از نیروهای امنیتی اصلی مالزی اعلامیه ای تکان دهنده منتشر کرد. «نیروهای امدادی» که شاخه ای از...
استیون فلدستین/ استاد علوم سیاسی دانشگاه بوآ امریکا: اوایل سال ۲۰۱۸ یکی از نیروهای امنیتی اصلی مالزی اعلامیه ای تکان دهنده منتشر کرد. «نیروهای امدادی» که شاخه ای از تعاونی پلیس سلطنتی مالزی است، قراردادی با شرکت فناوری ییتو چین امضا کرد تا ماموران خود را به فناوری تشخیص چهره این شرکت مجهز کند.
به گزارش فردا – حالا مقامات امنیتی مالزی قادر می بودند در چند ثانیه تصاویر دوربین های پخش زنده را با تصاویر پایگاه داده های خود مقایسه کنند. رئیس نیروهای امدادی نمی گفت که استفاده از فناوری هوش مصنوعی گام بزرگ رو به جلوی در تلاش برای بهبود امنیت ملی است. او همچنین اشاره داشت که سازمان تحت امرش در نهایت سیستم دوربین های خود را هم بهبود خواهد بخشید تا بتواند به توانایی تشخیص آنی چهره و هشدار سریع حضور مجرمان فهرست های پلیس دست یابد.
سنگاپور هم بلافاصله پیرو همسایه اش شد و اعلام کرد که قصد دارد یک پروژه عظیم نصب دوربین را به صورت آزمایشی اجرا کند که هدفش تجهز کردن تک تک در تیرهای چراغ شهری به دوربین هایی با فناوری تشخیص چهره خواهد بود. هدف این پروژه ظاهرا تسهیل «تحلیل جمعیتی» و کمک به عملیات و مبارزه با تروریسم بود.
برخی مدافعان حریم خصوصی هشدار دادند که این فناوری به دولت ها اجازه می دهد به راحتی مخالفان سیاسی را هدف بگیرند و آزادی بیان را سرکوب کنند، اما این اعتراض ها ثمری نداشت. در سوی دیگر، در آوریل ۲۰۱۸ شرکت استارتاپی کلاودواک که مقرش در شهر گو انگ ژوی چین است و در زمینه فناوری هوش مصنوعی فعالیت می کنند، قراردادی با زیمبابوه امضا کرد تا به نیروهای امنیت داخلی آن کشور فناوری تشخیص چهره بفروشد و یک پایگاه داده تصویری در سطح ملی برای شان بسازد. کلاودواک پیش از این به نیروهای پلیس منطقه زینجیانگ چین هم، که یکی از سرکوب شده ترین مناطق جهان است.
فناوری ، تشخیص چهره و تشخیص هویت فروخته بود. فناوری کلاودواک به تشدید سرکوب سیاسی در زیمبابوه کمک خواهد کرد. در کشوری که مقاماتش اخیرا اعتراضات پس از انتخابات را با خشونت سرکوب کرده اند. این ها مثال هایی تک افتاده و استثنایی نیستند. در سراسر جهان، سیستم های هوش مصنوعی آرام آرام نشان می دهند که بالقوه توان تقویت رژیم های سرکوبگر و تغییر شکل رابطه شهروندان و حکومت را دارند، و از این از طریق به موج بازگشت استبداد در جهان کمک و آن را تشدید و تسریع می کنند جمهوری خلق چین پیشگام تامین رژیم های استبدادی و غیر لیبرال با فناوری هوش مصنوعی است و این به یکی از مهم ترین اجزای استراتژی ژئوپولیتیک چینی ها تبدیل شده است.
هوش مصنوعی مفهوم فرّاری است و به زحمت می شود تعریفی دقیق از آن داد. یک تعریف و تلقی رایج این است که هدف هوش مصنوعی «هوشمند کردن ماشین ها»ست؛ مفهومی که اغلب با ارجاع به هوش انسانی توضیح داده می شود. بعضی هم، باشک در این مقایسه ها توضیح داده اند که جوهر هوش مصنوعی توانایی کامپیوتر در انجام دادن تعمیم های درست در زمان کم و بر اساس داده های محدود است.
این مقاله کاری با این اختلاف نظرها ندارد و تمرکزش را بر اثرات عملی این فناوری های جدید گذاشته است؛ فناوری هایی که به مدد سه تحول بزرگ وارد میدان شده و تکثیر شده اند: ۱) دسترسی بیشتر به کلان داده ها از منابع دولتی و خصوصی ۲) بهبود یادگیری ماشینی و رویکردهای الگوریتمی؛ و ۳) پیشرفت پردازش کامپیوتری. (یادگیری ماشینی که می شود در کارهای مختلف و متنوعی، از بردن بازی ورق تا تشخیص پاتوژنها، از آن استفاده کرد یک فرایند آماری تکرار شونده است که در آن مجموعه ای از داده ها در اختیار هوش مصنوعی گذاشته میشود و بعد هوش مصنوعی سعی می کند قاعده ای با ساز و کاری بسازد که این داده ها را توضیح دهد یا داده های آتی را پیش بینی کند.)
اهمیت این فناوری برای حاکمان مستبد جهان و مخالفان دموکراتیک آن ها روز به روز آشکارتر می شود. چرا که در سال های اخیر، رژیم های استبدادی با به کار بستن سیستم های پیشرفته محاسبه کامپیوتری به داده های عظیم مرتب نشده ای که در فضای آنلاین در دسترس هستند، و نیز داده های دوربین های مختلف شهری و منابع دیگر نظارت و مراقبت به سطوح جدیدی از کنترل و دستکاری و فریب دست یافته اند.
از فناوری های تشخیص چهره که تصاویر زنده را با داده های پیشین مقایسه می کنند، تا الگوریتم هایی که در رسانه های اجتماعی جست وجو می کنند تا نشانه های فعالیت اپوزیسیون را بیایند. این نوآوری ها ابزار مفیدی برای حاکمان و رژیم های مستبدی بوده اند که می کوشند گفتمان دایر در جامعه را شکل دهند و صدای اپوزیسیون را خفه کنند.
هوش مصنوعی تنها فناوری ای نیست که اقتدارگرایان با اهداف سیاسی از آن بهره گرفته اند. فناوری های ارتباطی و اطلاعاتی دیگری هم، که معمولا همراه با هوش مصنوعی و در کنار آن به کار گرفته می شوند همان قدر اثرات محتملاً مخرب دارند. این فناوری ها شامل بایومتریکس پیشرفته هک سایبری دولتی، و تکنیک های دستکاری اطلاعات است.
به دو دلیل بر اثرات سرکوبگر فناوری هوش مصنوعی تأکید داریم. نخست این که هوش مصنوعی توانایی بالاتری است که کارکردهای فناوری های دیگر را به طرق جدید حیرت انگیزی درهم می آمیزد و بهبود می بخشد. دوم این که درک رایج از اثر سیاستی فناوری هوش مصنوعی همچنان بسیار محدود است و سیاستگذاران هنوز باید مدت ها در اثرات و پیامدهای سرکوبگر هوش مصنوعی تفکر جدی کنند.

۱-چرا هوش مصنوعی برای رهبران مستبد موهبتی است؟
حاکمان مستبد، به جای تکیه به زیرساخت های عظیم نیروهای امنیتی، برای نظارت، آزار و اذیت و ارعاب مخالفان می توانند با استفاده از هوش مصنوعی به یک توان دیجیتال دست یابند که هم کم هزینه تر است و هم از دغدغه دومی که به آن اشاره کردیم، می کاهد. در واقع، پیشرفته ترین عملیات نظارت و مراقبت به منابع و عوامل انسانی نسبتا کمتری نیاز دارد و بسیاری از کارکردها به جای انسان ها به هوش مصنوعی خودکار سپرده می شود.
علاوه بر این، در مقایسه با ماموران انسانی که زمان و توجه محدودی دارند، سیستم های هوش مصنوعی می توانند شبکه وسیع تری بسازند و به سبب این حضور گسترده و همه جایی هوش مصنوعی، این سیستم ها می توانند حتا در غیاب خشونت فیزیکی ادامه دار، «اثر ارعابی» چشمگیری داشته باشند.
اگر شهروندان بدانند که هیات های هوش مصنوعی همه ارتباطات آن ها را تحت نظر دارند و این که الگوریتم ها پیغام های نارضایتی آن ها را تشخیص داده و به مقامات گزارش خواهند کرد، بیش از پیش انگیزه همرنگی و تسلیم خواهند داشت، و این سادگی ظریف سرکوب هوش مصنوعی است. چرا که در مقایسه با سرکوب معمول عوامل انسانی بسیار کمتری نیاز دارد، آزار و اذیت فیزیکی کم تری دارد، و هزینه اش بسیار کمتر است، و از طرف دیگر می تواند تأثیر وسیع تر و نظام مندتری داشته باشد.

۲- آیا دموکراسی ها از هوش مصنوعی باید بترسند؟
رواج استفاده از فناوری هوش مصنوعی و افزایش روزافزون سرکوب دیجیتال چالش های سیاستی جدی ای برای دموکراسی ها ایجاد کرده است. یک مسئله اصلی این است که آیا ابزارهای هوش مصنوعی خود دموکراسی ها را سرکوبگرتر نخواهند کرد. مشخصا این که آیا وسوسه استفاده از پتانسیل نظارت هوش مصنوعی در نهایت بر ارکان تضمین دموکراسی نخواهد چربید؟ تاریخ نشان داده است که باید نگران باشیم.
در سال ۱۹۷۵ اخبار تکان دهنده سوء استفاده های جامعه اطلاعاتی آمریکا موجب شد که سنای آمریکا مجوز تأسیس کمیته چرچ را بدهد. گزارش شده بود که سیا در تلاش برای ترور رهبران خارجی بوده است و آژانس های اطلاعاتی دیگر امریکا هم شبکه های وسیع نظارت و جاسوسی داخلی ساخته اند تا بر فعالیت های فعالان حقوق مدنی، معترضان سیاسی و سازمان های بومیان آمریکا نظارت کنند و آن ها را هدف آزار و اذیت قرار دهند.
کمیته چرچ، در گزارش نهایی خود، هشدار داده بود که «بارها و بارها، اصول قانون اساسی در مسیر عملی مجاز شمردن اهداف مطلوب به منظور مشروعیت بخشیدن به وسایل مقتضی، فدا شده اند.» بنابراین، به رغم سنت دیرین محافظت از حقوق فردی و تحدید اختیارات حکومت در امریکا، دولت همچنان توان و امکان آن را داشت که پا را از گلیمش درازتر کند.
سوء استفاده های عمدی آژانس های امنیت داخلی از هوش مصنوعی تنها در مسائل مرتبط با آزادی های مدنی نیست. سوگیری های پنهان و تبعیض شدیدتر در الگوریتم ها هم مایه نگرانی هستند. مثلا استفاده از هوش مصنوعی در پلیس و خدمات درمانی، می تواند نابرابری ها را تشدید کند و موجب اقدامات تبعیض آمیز شود با چنین اقداماتی را افزایش دهد.

۳- چینی شدن هوش مصنوعی به چه معناست؟
چین فناوری های هوش مصنوعی خودش را به حکومت های مختلف در سراسر جهان می فروشد و نمونه های جالب توجه این پروژه ها از ساخت شبکه ای از «شهرهای امن» در پاکستان (شهرهایی با نظارت بسیار زیاد به وسیله فناوری) تا تأمین فناوری هوش مصنوعی و نرم افزارهای تشخیص چهره برای حاکمان مستبد آرژانتین، را در بر می گیرند. چین فرض را بر این گذاشته است که هر چه الگوی حکمرانی کشورهای بیشتری را با الگوی خودش هماهنگ و هم آوا کند، آن کشورها کمتر تهدیدی برای هژمونی چین خواهند بود.

۴- در برابر هوش مصنوعی چه چاره های سیاستی ای می توان داشت؟
در سال های پیش رو، هوش مصنوعی تأثیر بسیاری بر سیاست جهان خواهد داشت. گرچه نمی توان پاسخ سیاستی واحدی یافت که به قدر کافی در مواجهه با این مسئله پیچیده و چندوجهی کارایی داشته باشد، اما راه های متعددی پیش پای حکومت های دموکراتیک وجود دارد. در مجموع، دموکراسی های پیشرفته باید آشکارا و علنا به بزرگی تهدید فناوری هوش مصنوعی برای نظام های سیاسی آزاد و باز باور پیدا کنند. اما سوء استفاده از فناوری هوش مصنوعی مختص رژیم های استبدادی هم نیست. بنابراین هرچه دولت های دموکراتیک به فناوری های جدیدتری می رسند که توان نظارت و مراقبت آن ها را به شدت بالا می برند، باید محدودیت ها و مرزهای مجاز استفاده از این توانایی ها را هم به روشنی تعریف کنند دموکراسی ها باید نظر در خودشان اندازند و در تهیه چارچوب های تنظیمی و قانونی داخلی پیشگام شوند.
چنین فرایندی دشوار و پرهزینه و پردردسر خواهد بود: نوآوری تکنولوژیک اغلب جلوتر از توان قانون گذاران حرکت می کند و ایشان نمی توانند به موقع معیارها و ضوابط مناسبی برای فناوری های جدید تعیین کنند. اما با وجود این، دموکراسی های پیشرفته اکنون در بهترین موضع و شرایط برای تنظیم و تحدید شرکت های خصوصی و جلوگیری از سوء استفاده هستند. تلاش های داخلی همچنین باید با اقدام هماهنگ و مکمل بین المللی برای خلق چارچوب های روشن برای استفاده از هوش مصنوعی همراه شوند. طرح هایی مثل طرح اصول راهنمای کسب و کار و حقوق بشر سازمان ملل الگوی مفیدی هستند. در این مسیر به بحث هنجاری گسترده تری هم نیاز است.
جامعه بین الملل هنوز باید با مسائل متعددی در رابطه با تبعیض الگوریتم ها، تبعیض پنهان و حریم خصوصی، دست و پنجه نرم کند. در نهایت، دموکراسی ها باید به طرق مختلف در پی تقویت توان مقاومت جامعه مدنی برآیند تا بتواند در برابر سرکوب ناشی از هوش مصنوعی مقاومت، و در طرح ریزی چارچوب ها برای استفاده از هوش مصنوعی مشارکت نماید. سازمان های محلی جامعه مدنی، در محیط های سرکوب شده عمدتا به فضای آنلاین کوچ کرده اند. اما از به کار بستن گسترده ابزارهای امنیت دیجیتال موجود ناتوان هستند. ابزارهایی مثل خدمات رمزنویسی، در نتیجه، خطرات بزرگی در قالب حملات سایبری، نفوذ، نظارت و مراقبت پیش روی آن هاست.
برای گروه های مشابه در کشورهای دموکراتیک، چالش بزرگ این است که چطور بر اعمال قواعد و چارچوب ها نظارت کنند، موارد نقض قانون و سوءاستفاده از هوش مصنوعی را رصد کنند، و در کل نقشی نظارتی را برعهده بگیرند. تحقیقاتی مثل تحقیقات پروپایلیکا که تبعیض پنهان الگوریتمی در دستگاه قضای آمریکا را افشا کرد، تأثیر چشمگیری در شیوه استفاده دولت ها از هوش مصنوعی دارد. بنابراین، در سطح بین الملل، حیاتی است که جامعه مدنی فرصت بیان قدرتمندی در بحث و گفت و گوها درباره استفاده درست از هوش مصنوعی و قواعد و چارچوب های نظارتی آن، داشته باشد.
هوش مصنوعی ابزاری «دوکاره» است: می توان آن را در کاربردهای مفید به کار بست، یا در خدمت اهداف نظامی و سرکوب به کار گرفت. اما نمی توان مرز مشخص و روشنی میان هوش مصنوعی «مفید» و «مخرب» ترسیم کرد. برای تضمین استفاده درست از هوش مصنوعی، تقویت روابط میان جامعه سیاست گذاران و مهندسان و محققان اهمیت کلیدی دارد. به عبارت دیگر، کسانی که مسئولیت طراحی، برنامه ریزی و اجرای سیستم های هوش مصنوعی را بر عهده دارند، باید مسئولیت اعمال وحفظ معیارهای حقوق بشری را هم بر عهده بگیرند.
سیاست گذاران باید به طور مرتب با مهندسان و اهالی فناوری به بحث و گفت وگو بنشینند تا همه طرف های درگیر از کاربردها و سوء کاربردهای احتمالی هوش مصنوعی آگاه شوند و بتوانند به موقع واکنش های مناسبی طرح ریزی کنند از پاکستان تا زیمبابوه بینش استبدادی خطرناکی نسبت به آینده هوش مصنوعی در حال شکل گیری است. وقت آن رسیده است که دولت ها و نهادهای دموکراتیک به فکر واکنشی جدی و محکم باشند.

خلاصه ای از مقاله عصر سرکوب دیجیتال: هوش مصنوعی شکل سرکوب را عوض کرده است
منبع: اندیشه پویا

پاسخی ارسال کنید

*

*

پنج × دو =

آخرین اخبار

زیر آسمان کوالالامپور

^
error: Content is protected !!