هوش مصنوعی پلیس آمریکا هم نژادپرست از آب درآمد
سیستمهای پلیسی به نیروهای انتظامی وعده پیشبینی جرم را دادند، اما در عمل به بازداشتهای نادرست، تکرار سوگیریهای نژادی و ویرانی زندگی شهروندان در سراسر آمریکا منجر شدند.
خلاصه خبر
هوش مصنوعی پلیس آمریکا هم نژادپرست از آب درآمد
سیستمهای پلیسی به نیروهای انتظامی وعده پیشبینی جرم را دادند، اما در عمل به بازداشتهای نادرست، تکرار سوگیریهای نژادی و ویرانی زندگی شهروندان در سراسر آمریکا منجر شدند.
گروه علم و پیشرفت خبرگزاری فارس - در سالهای اخیر، دولتهای محلی و نیروهای انتظامی در ایالات متحده بهسرعت به سامانههایی روی آوردند که وعده کاهش جرم از راه «پیشبینی» را میدادند. این نرمافزارها یا برای «نمرهگذاری خطر» افراد بهکار میرفتند و یا «نقاط داغ» جغرافیایی را برای تمرکز عملیات پلیسی مشخص میکردند. همچنین، ابزارهای تشخیص چهره نیز تطبیق تصویر را بهسرعت انجام میدادند.اما در عمل، مجموعهای از پروندههای مستند نشان میدهد که خروجی این سامانهها نه تنها گاه منجر به بازداشتهای نادرست شده، بلکه زندگی روزمره، حیثیت و امنیت حقوقی گروههای مشخصی از شهروندان را نیز تضعیف کرده است.[توضیح: در زمینه عملیات پلیسی و مدیریت شهری، نقطه داغ یا هاتاسپات به یک منطقه یا مکان جغرافیایی کوچک (مانند یک خیابان، تقاطع یا بلوک شهری) گفته میشود که تمرکز غیرعادی بالایی از فعالیتهای مجرمانه در آن رخ داده یا انتظار میرود رخ دهد.]
الگوریتمها نرخ «مثبت کاذب» بالایی برای متهمان سیاهپوست تولید کردند
اولین شکافهای جدی عمومی درباره اعتبار و اثرات این فناوریها با انتشار گزارش تحقیقی یک نهاد رسانهای آشکار شد. آن گزارش تحلیلی، پایش و کدهای خود را منتشر کرد و نشان داد ابزاری که برای پیشبینی «تجدید جرم» در برخی دادگاهها و سیستمهای قضایی بهکار میرود، نرخ «مثبت کاذب» معناداری برای متهمان سیاهپوست تولید کرده است.یعنی افرادی که سیستم آنها را «پرخطر» تشخیص داده بود، در عمل بازگشت به جرم کمتری از نمونه دیگری نشان دادند که سیستم آنها را کمخطر میپنداشت. این یافته رسانهای و حقوقی، مباحثی درباره عدالت دادهمحور، شفافیت الگوریتمی و تأثیرات اجتماعی بهکارگیری این ابزارها را آغاز کرد.[توضیح: نرخ مثبت کاذب (False Positive Rate - FPR)، نسبت مواردی است که سامانه یا آزمون به اشتباه آنها را «مثبت» (حاوی ویژگی یا خطر) تشخیص داده است، در حالی که در واقعیت، آن موارد «منفی» (فاقد ویژگی یا خطر) بودهاند.]همزمان با داغ شدن این مناقشه عمومی، مسیر قضایی نیز به موضوع ورود کرد. در پرونده معروف یک ایالت در سال ۲۰۱۶، دیوان عالی آن ایالت با بررسی مسأله استفاده از ارزیابیهای ریسک در تعیین مجازات اعلام کرد که استفاده از چنین ارزیابیهایی «به خودی خود» مغایر حق دادرسی نیست.اما دادگاه صراحتاً بر ضرورت هشدار، محدودیت و شفافسازی در مورد ماهیت «جعبهسیاه» این ابزارها تأکید کرد. این رأی ظرفیت قانونی این گونه ابزارها را بهصورت مشروط پذیرفت، اما همزمان مبانی انتقادی لازم برای بررسی عملی پیامدهای اجرای آنها را نیز فراهم ساخت.
الگوریتمها سوگیریهای پلیسی گذشته را تکرار میکنند
مسئله مرکزی، نسبت میان دادهها و عمل پلیسی است: دادههای ورودی این سیستمها معمولاً محصول عملکرد گذشته نیروهای انتظامیاند. هنگامی که الگوریتمها از آن دادهها الگو میآموزند، گرایش به بازتولید و تشدید همان الگوها وجود دارد. این وضعیت در عمل به تمرکز مکرر پلیس در محلههایی منجر میشود که قبلاً بیشتر هدف توقفها و تماسهای پلیسی بودهاند.نتیجه آن است که الگوریتم بهجای پیشبینی مستقل، عملاً «پوشش» و مشروعیت تصمیمات اجرایی پیشین را بازآفرینی میکند. این بازآفرینی اغلب باعث افزایش تماسها، بازداشتها و فشارهای اداری بر ساکنان همان محلهها میشود. دادههای تاریخی و گزارشهای ممیزی در نقاط مختلف کشور این الگو را تأیید کردهاند.
شهروندان در یک فرایند محرمانه هدف قرار گرفتند
شیکاگو یکی از نمونههای مهم و مستند است؛ جایی که سامانهای موسوم به «لیست سوژههای استراتژیک» یا «لیست داغ» تدوین شد تا افراد «احتمالاً مرتبط با تیراندازی» را شناسایی کند. اسناد و بررسیهای مستقل نشان میدهد سازوکار انتخاب افراد و معیارها شفاف نبوده و لیست در فرایندی محرمانه تولید میشده است.افرادی که در این فهرست قرار گرفتهاند، روایتهایی از تماسهای مکرر پلیس، تضعیف کسبوکار و تحمل فشار اجتماعی نقل کردهاند؛ روایتهایی که در کنار دادههای شهری، تصویری از فرد یا گروه هدفشده فراهم میآورند و پرسشهای بنیادی درباره مشروعیت و پاسخگویی ایجاد میکنند.در سطح اجرایی-عملی نیز برنامههایی مانند نرمافزارهای محلمحور مورد انتقاد قرار گرفتند. ممیزیها و بررسیهای محلی نشان دادند که این ابزارها غالباً الگوهای پلیسی گذشته را بازتولید میکنند؛ یعنی هنگامی که دادهها نشاندهنده تمرکز قبلی پلیس در یک محله باشند، الگوریتم آن محله را بارها و بارها بهعنوان «پُرخطر» علامتگذاری میکند و این خود به حضور فیزیکی بیشتر نیروها و افزایش تماسها و بازداشتها میانجامد. برخی از این برنامهها پس از فشار رسانهای یا بررسیهای مستقل متوقف یا بازطراحی شدند، اما پیامدهای اولیه نظارت افزایشی بر جوامع هدف تا مدتها باقی ماند.
مطابقت اشتباه چهره، منجر به دستگیری شد
سامانه تشخیص چهره اما شکایت و تبعات فوری بیشتری به زندگی افراد وارد کرده است. پروندههایی مستند شدهاند که در آنها یک تطبیق اشتباه از پایگاههای تصویری به بازداشت نادرست منتهی شده است. مثال برجسته این دسته، پرونده «رابرت ویلیامز» در دیترویت است؛ مطابقت اشتباه تصویر او با تصویر ضبطشده یک فروشگاه سبب شد پلیس او را جلوی خانوادهاش دستگیر کند و برای ساعتها در بازداشت نگاه دارد.مورد ویلیامز و موارد مشابه دیگر توجه افکار عمومی، مدافعان حقوق مدنی و دادگاهها را به خطرات استفاده بیقید و بند از ابزارهای تطبیق تصویر جلب کرد؛ در برخی موارد، دولتهای محلی در واکنش به این فشارها سیاستهای استفاده از تشخیص چهره را بازنگری کردند یا محدود کردند.تحقیقات تازه نیز نشان میدهد سوءکاربرد تشخیص چهره و اتکا بر «اعلام مطابقت» الگوریتمی همچنان ادامه دارد. بررسیها نشان داد که در شمار قابل توجهی از موارد، بازداشتها بر اساس تطبیق الگوریتمی انجام شده که پس از آن بررسی مستقل کافی صورت نگرفته است. در برخی گزارشها مشخص شده است که تعدادی از پلیسها حتی در مواردی از اعلان نقش فناوری در فرایند بازداشت برای متهمان یا دفاعیات آنان امتناع کردهاند.
قربانیان الگوریتم: زیان اقتصادی، خسارت روانی و آسیب حیثیتی
آنچه در پشت گزارشها و آمار رخ میدهد، روایتهای انسانی است: مردان و زنانی که بهدلیل یک نمره یا تطبیق تصویری بدون شواهد مکمل، با بازداشت، استیضاح اجتماعی یا محدودیت در حرکت و کار مواجه شدهاند. شماری از این افراد پس از بازداشت نادرست، زیان اقتصادی، خسارت روانی و آسیب حیثیتی را گزارش کردهاند؛ روایتهایی که در پروندههای قضایی، گزارشهای حقوقی و مصاحبههای میدانی ثبت شدهاند و نشان میدهد تبعات این فناوریها از آمار فراتر میرود و به کیفیت زندگی روزمره افراد نفوذ میکند.بررسی پروندهها نشان میدهد که سه عامل تکرارشونده در وقوع بازداشتهای نادرست یا فشارهای قضایی نقش داشتهاند:دادههای تاریخمند: اتکا به دادههای تاریخی پلیسی که سوگیریهای گذشته را در خود دارد.فقدان شفافیت: عدم شفافیت و دسترسی به روشهای فنی ابزارهای تجاری که مانع ممیزی مستقل میشود.اعتماد ناسالم عملیاتی: نوعی «اعتماد عملیاتی» که در آن کارکنان اجرایی خروجی سیستم را بهعنوان دلیلی محکم برای اقدامات فوری تلقی میکنند، بیآنکه تأییدهای مستقل کافی بهعمل آید.در بازخوانی اسناد، آرا قضایی و گزارشهای تحقیقاتی منتشرشده مشخص است که موارد متعددی از بازداشت نادرست، شکایات مدنی و بازنگریهای سیاستگذاری رخ داده است؛ اما این تغییرات اغلب محدود به حوزههای قضایی مشخص یا واکنشهای موردی بوده است. روایتهای ثبتشده حاکی از آن است که هزینه انسانی این فناوریها بیش از آن است که با آمار کلی قابل توصیف باشد و نیازمند ثبت دقیق و دسترسی عمومی به شواهد برای حق دفاع است.
خوانش مجموعه مدارک و روایتها نشان میدهد که تجربه مواجهه با «پیشبینی جرم» بیش از هر چیز، تصویرگر تنش میان کارایی ادعایی فناوری و لزوم حمایتهای حقوقی و فرایندی است؛ تنشی که در هر پرونده مستند به شکل ملموسی بر زندگی افراد تأثیر گذاشته است.در میان صفحات رأیها، گزارشهای ممیزی و مصاحبههای میدانی، میتوان قطعاتی از یک تاریخ تجربی را بازسازی کرد: تاریخ ورود الگوریتمها به میادین نیروی انتظامی، تاریخ خطاها و بازداشتهای نادرست، و تاریخ اعتراضی که از طریق شکایتهای حقوقی و افکار عمومی پرسشهایی درباره مشروعیت و شفافیت طرح کرده است.#پیش_بینی_جرم#سوگیری_الگوریتم#تشخیص_چهره#بازداشت_نادرست#عدالت_ماشینی
07:08 - 30 آبان 1404
نظرات کاربران









