بخشهای دولتی در سراسر آفریقای جنوبی به طور فزایندهای به ابزارهای دیجیتال برای ارزیابی برنامههای عمومی و نظارت بر عملکرد متکی هستند. این بخشی از اصلاحات گستردهتر بخش عمومی است. هدف آنها بهبود پاسخگویی، پاسخ به فشار حسابرسی و مدیریت برنامههای در مقیاس بزرگ با کارکنان و بودجه محدود است.
در اینجا یک مثال آورده شده است. بخشهای ملی که تحویل مسکن، کمکهای اجتماعی یا گسترش زیرساختها را ردیابی میکنند، به جای گزارشهای دورهای مبتنی بر کاغذ، به سیستمهای عملکرد دیجیتال متکی هستند. داشبوردها – روشی برای نمایش دادههای بصری در یک مکان – بهروزرسانیهای نزدیک به زمان واقعی (بلادرنگ) در ارائه خدمات را ارائه میدهند.
مورد دیگر استفاده از پلتفرمهایی است که دادههای موبایل را جمعآوری میکنند. اینها به مقامات خط مقدم و پیمانکاران اجازه میدهند تا اطلاعات را مستقیماً از میدان بارگذاری کنند.
هر دو مثال خود را به استفاده از هوش مصنوعی (AI) برای پردازش مجموعه دادههای بزرگ و تولید بینشهایی که قبلاً ماهها برای تجزیه و تحلیل زمان میبرد، میرسانند.
این تغییر اغلب به عنوان گامی رو به جلو برای پاسخگویی و کارایی در بخش عمومی به تصویر کشیده میشود.
من یک محقق سیاست عمومی با علاقه ویژه به نظارت و ارزیابی برنامههای دولتی هستم. تحقیقات اخیر من روند نگرانکنندهای را نشان میدهد، که گرایش به فناوری بسیار سریعتر از چارچوبهای اخلاقی و حکمرانی که قرار است آن را تنظیم کنند، در حال آشکار شدن است.
در موارد مورد بررسی من، ابزارهای دیجیتال قبلاً در فرآیندهای نظارت و ارزیابی روتین جاسازی شده بودند. اما استانداردهای روشنی برای هدایت استفاده از آنها وجود نداشت.
این خطراتی را در مورد نظارت، طرد، سوء استفاده از دادهها و قضاوت ضعیف حرفهای ارائه میدهد. این خطرات انتزاعی نیستند. آنها نحوه تجربه شهروندان از دولت، نحوه مدیریت دادههای آنها و اینکه صدای چه کسی در نهایت در تصمیمات سیاسی به حساب میآید را شکل میدهند.
وقتی فناوری از سیاست پیشی میگیرد
ارزیابی بخش عمومی شامل ارزیابی برنامهها و سیاستهای دولتی است. این تعیین میکند که آیا:
- منابع عمومی به طور موثر استفاده میشوند
- برنامهها به نتایج مورد نظر خود میرسند
- شهروندان میتوانند دولت را در قبال عملکرد پاسخگو نگه دارند.
به طور سنتی، این ارزیابیها بر تعامل رو در رو بین جوامع، ارزیابها، دولت و دیگران متکی بودند. آنها شامل روشهای کیفی بودند که امکان تفاوت ظریف، توضیح و ایجاد اعتماد را فراهم میکردند.
ابزارهای دیجیتال این را تغییر دادهاند.
در تحقیقات خود، من با ارزیابها در سراسر دولت، سازمانهای غیردولتی، دانشگاه، انجمنهای حرفهای و مشاورههای خصوصی مصاحبه کردم. من یک نگرانی ثابت در سراسر این موارد پیدا کردم. سیستمهای دیجیتال اغلب بدون راهنمایی اخلاقی متناسب با عملکرد ارزیابی معرفی میشوند.
راهنمایی اخلاقی قوانین روشن و عملی برای نحوه استفاده از ابزارهای دیجیتال در ارزیابیها ارائه میدهد. به عنوان مثال، هنگام استفاده از داشبوردها یا تجزیه و تحلیل دادههای خودکار، راهنمایی باید از ارزیابها بخواهد که توضیح دهند دادهها چگونه تولید میشوند، چه کسی به آنها دسترسی دارد و چگونه یافتهها ممکن است بر جوامع مورد ارزیابی تأثیر بگذارد. همچنین باید از استفاده از سیستمهای دیجیتال برای نظارت بر افراد بدون رضایت یا رتبهبندی برنامهها به روشهایی که زمینه را نادیده میگیرند جلوگیری کند.
قانون حفاظت از اطلاعات شخصی آفریقای جنوبی یک چارچوب قانونی عمومی برای حفاظت از دادهها فراهم میکند. اما معضلات اخلاقی خاصی را که هنگام خودکار شدن، مبتنی بر رایانش ابری و واسطه الگوریتمی ارزیابی ایجاد میشود، پوشش نمیدهد.
نتیجه این است که ارزیابها اغلب بدون استانداردهای روشن، در حال پیمایش در زمین اخلاقی پیچیده باقی میمانند. این امر نهادها را مجبور میکند که به سابقه، عادات غیررسمی، شیوههای گذشته و پیشفرضهای نرمافزار متکی باشند.
افزایش نظارت و سوء استفاده از دادهها
پلتفرمهای دیجیتال جمعآوری حجم زیادی از دادهها را ممکن میسازند. هنگامی که دادهها به سیستمهای مبتنی بر رایانش ابری یا پلتفرم های شخص ثالث بارگذاری میشوند، کنترل بر ذخیرهسازی، استفاده مجدد و اشتراکگذاری آن اغلب از ارزیابها به دیگران منتقل میشود.
چندین ارزیاب موقعیتهایی را توصیف کردند که در آنها دادههایی که از طرف بخشهای دولتی جمعآوری کرده بودند، بعداً توسط بخشها یا سایر آژانس ها های دولتی مورد استفاده مجدد قرار گرفتند. این بدون آگاهی صریح شرکتکنندگان انجام شد. فرآیندهای رضایت در محیطهای دیجیتال اغلب به یک کلیک کاهش مییابند.
نمونههایی از موارد استفاده دیگر شامل اشکال دیگر تجزیه و تحلیل، گزارشدهی یا نظارت نهادی بود.
یکی از خطرات اخلاقی که از تحقیقات به دست آمد، استفاده از این دادهها برای نظارت بود. این استفاده از دادهها برای نظارت بر افراد، جوامع یا کارکنان خط مقدم است.
طرد دیجیتال و صداهای نامرئی
ابزارهای ارزیابی دیجیتال اغلب به عنوان گسترش دسترسی و مشارکت ارائه میشوند. اما در عمل، آنها میتوانند گروههای از قبل به حاشیه رانده شده را طرد کنند. جوامع با دسترسی محدود به اینترنت، سواد دیجیتال پایین، موانع زبانی یا زیرساخت غیرقابل اعتماد کمتر احتمال دارد که به طور کامل در ارزیابیهای دیجیتال شرکت کنند.
ابزارهای خودکار محدودیتهایی دارند. به عنوان مثال، آنها ممکن است در پردازش دادههای چند زبانه، لهجههای محلی یا اشکال بیان فرهنگی خاص با مشکل مواجه شوند. این منجر به نمایشهای جزئی یا تحریف شده از تجربه زیسته میشود. ارزیابها در مطالعه من دیدند که این در عمل اتفاق میافتد.
این طرد عواقب جدی به ویژه در کشوری با نابرابری مانند آفریقای جنوبی دارد. ارزیابیهایی که به شدت به ابزارهای دیجیتال متکی هستند ممکن است جمعیتهای شهری و متصل را پیدا کنند و جوامع روستایی یا غیررسمی را از نظر آماری نامرئی کنند.
این صرفاً یک محدودیت فنی نیست. این شکل میدهد که کدام نیازها شناخته میشوند و تجربیات چه کسی تصمیمات سیاسی را آگاه میکند. اگر دادههای ارزیابی آسیبپذیرترینها را کمتر نشان دهد، برنامههای عمومی ممکن است مؤثرتر از آنچه هستند به نظر برسند. این شکستهای ساختاری را پنهان میکند تا اینکه به آنها رسیدگی کند.
در مطالعه من، برخی از ارزیابیها روندهای عملکرد مثبت را گزارش کردند علیرغم اینکه ارزیابها شکافهایی را در جمعآوری دادهها ذکر کردند.
الگوریتمها خنثی نیستند
ارزیابها همچنین نگرانیهایی را در مورد اختیار فزاینده اعطا شده به خروجیهای الگوریتمی مطرح کردند. داشبوردها، گزارشهای خودکار و تجزیه و تحلیلهای مبتنی بر هوش مصنوعی اغلب به عنوان تصویر واقعی تلقی میشوند. این حتی زمانی اتفاق میافتد که آنها با دانش مبتنی بر میدان یا درک زمینهای در تضاد باشند.
به عنوان مثال، داشبوردها ممکن است یک هدف را در مسیر نشان دهند. اما در مثالی از بازدید از سایت، ارزیابها ممکن است نقص یا نارضایتی پیدا کنند.
چندین شرکتکننده فشار از سوی سرمایهگذاران یا نهادها را برای تکیه بر تحلیل اعداد گزارش کردند.
با این حال، الگوریتمها فرضیات، مجموعه دادهها و اولویتهای جاسازی شده در طراحی خود را منعکس میکنند. هنگامی که به طور غیرانتقادی اعمال میشوند، میتوانند تعصب را بازتولید کنند، پویاییهای اجتماعی را بیش از حد ساده کنند و بینش کیفی را نادیده بگیرند.
اگر سیستمهای دیجیتال دیکته کنند که چگونه دادهها باید جمعآوری، تجزیه و تحلیل و گزارش شوند، ارزیابها در معرض خطر تبدیل شدن به تکنسین هستند و نه متخصصان مستقلی که قضاوت را اعمال میکنند.
چرا آفریقا به اخلاق حساس به زمینه نیاز دارد
در سراسر آفریقا، استراتژیها و سیاستهای ملی در مورد فناوریهای دیجیتال اغلب به شدت از چارچوبهای بینالمللی وام میگیرند. اینها در زمینههای بسیار متفاوت توسعه یافتهاند. اصول جهانی در مورد اخلاق هوش مصنوعی و حکمرانی دادهها نقاط مرجع مفیدی را ارائه میدهند. اما آنها به طور کافی به واقعیتهای نابرابری، بیاعتمادی تاریخی و دسترسی نابرابر دیجیتال در سراسر بخش عمومی بسیاری از آفریقا نمیپردازند.
تحقیقات من استدلال میکنند که حکمرانی اخلاقی برای ارزیابی دیجیتال باید حساس به زمینه باشد. استانداردها باید موارد زیر را پوشش دهند:
- چگونه رضایت به دست میآید
- چه کسی مالک دادههای ارزیابی است
- چگونه ابزارهای الگوریتمی انتخاب و حسابرسی میشوند
- چگونه استقلال ارزیاب محافظت میشود.
چارچوبهای اخلاقی باید در مرحله طراحی سیستمهای دیجیتال جاسازی شوند.![]()
لسدی سنامله ماتلالا، استادیار ارشد و محقق در سیاست عمومی، نظارت و ارزیابیها، دانشگاه یوهانسبورگ
این مقاله از The Conversation تحت مجوز Creative Commons بازنشر شده است. مقاله اصلی را بخوانید.


