اخبار

تاثیر هوش مصنوعی در سیستم قضایی و ایجاد عدالت

تاثیر هوش مصنوعی در سیستم قضایی و ایجاد عدالت

مقامات انفصال اجتماعی و عدالت کیفری به طور فزاینده‌ای از هوش مصنوعی (AI) و سیستم‌های تصمیم‌گیری خودکار (ADM) در کار خود استفاده می‌کنند.

این سیستم‌ها می‌توانند برای تشخیص افراد به عنوان مجرم، “پیش‌بینی” اعمال آن‌ها و ارزیابی خطر رفتارهای خاصی نظیر ارتکاب جرم در آینده، مورد استفاده قرار گیرند. این می‌تواند عواقب ویران‌گری برای افراد متاثر داشته باشد، اگرچه آن‌ها به عنوان مجرمان تشخیص داده شوند یا حتی اگر واقعاً جرمی ارتکاب نکرده باشند.

این سیستم‌های “پیش‌بینی” جرم یا پلیسیِ “پیش‌بینی‌شده” دیگر محدود به حوزه‌ی علمی خیال نیستند. این سیستم‌ها توسط نهادهای انفصال اجتماعی در سراسر جهان استفاده می‌شوند. و پیش‌بینی‌ها، تشخیص‌ها و ارزیابی‌های خطر که بر اساس تجزیه و تحلیل داده، الگوریتم‌ها و هوش مصنوعی انجام می‌شوند، اغلب به نتایج واقعی در زمینه‌ی عدالت کیفری منجر می‌شود. این ممکن است شامل نظارت یا پایش، توقیف و بازجستجوهای تکراری، سؤال‌وجواب، جرایم مالی و دستگیری‌ها باشد. این سیستم‌ها ممکن است تصمیمات مربوط به اقدامات قانونی، محکومیت و نظریه مجازات را به شدت تحت تأثیر قرار دهند.

سیستم‌های پلیسی “پیش‌بینی‌کننده” و سیستم‌های “پیش‌بینی” جرمی:

مقامات انفصال اجتماعی و عدالت کیفری به طور فزاینده از داده‌های بزرگ، الگوریتم‌ها و هوش مصنوعی (AI) برای تشخیص مشخصات افراد و ‘پیش‌بینی’ احتمال ارتکاب جرم توسط آن‌ها استفاده می‌کنند.

سیستم‌های پلیسی “پیش‌بینی‌کننده” و سیستم‌های “پیش‌بینی” جرمی بارها و بارها ثابت شده‌اند که تبعیض را تقویت کرده و حقوق بنیادین را، از جمله حق به محاکمه منصفانه و فرض بی‌گناهی، زیر سؤال می‌برند. این منجر به نظارت افزایش یافته بر افراد سیاه‌پوست، رما و اقلیت‌های دیگر نژادی در سراسر اروپا و بازداشت و زندانی کردن نابجا آن‌ها می‌شود.

به عنوان مثال، در هلند، لیست “Top 600” سعی دارد ‘پیش‌بینی’ کند که کدام جوانان ممکن است جرائم خاصی را ارتکاب کنند. یکی از هر سه نفر از “Top 600” که بسیاری از آن‌ها از تعقیب و آزار توسط پلیس گزارش داده‌اند، از نسل مراکشی هستند. در ایتالیا، سیستمی به نام دلیا توسط پلیس به عنوان یکی از ابزار‌های پیش‌بینی از داده‌های نژادی برای تشخیص مشخصات و ‘پیش‌بینی’ جرم در آینده افراد استفاده می‌کند. سیستم‌های دیگر تلاش می‌کنند که ‘پیش‌بینی’ کنند که کجا جرم ارتکاب می‌شود و به صورت تکراری مناطقی با جمعیت بالایی از افراد نژادی یا جوامع فقیرتر را هدف قرار دهند.

تنها یک قطعی ممنوعیت از این سیستم‌ها می‌تواند این نابرابری را متوقف کند. ما در اتحادیه اروپا به دنبال ممنوعیت در قانون هوش مصنوعی اتحادیه اروپا (AI Act) و سایر اقدامات در سطح بین‌المللی و ملی هستیم.

پایگاه‌های داده و داده‌ها در امور پلیسی و عدالت کیفری:

در سراسر جهان، نهادهای پلیسی و عدالت کیفری دارای پایگاه‌های داده گسترده‌ای هستند که حاوی حجم زیادی از اطلاعات در مورد افراد، واقعات و جرائم ادعا شده می‌باشند. این داده‌ها شامل گزارش‌های پلیس، واقعات، اقدامات احتیاطی و محکومیت‌ها، همچنین تصاویر، آدرس‌ها، همکاران، وسایل نقلیه و دارایی‌های دیگر، و داده‌های مربوط به نژاد یا نژادی، جنسیت، ملیت و موارد دیگر از افراد می‌شود. آن‌ها همچنین می‌توانند شامل “اطلاعات اطلاعاتی” پلیس باشند – اطلاعاتی که اغلب ازمزاحمت واقعیت در مورد مشارکت ادعایی افراد در جرم یا فعالیت دیگر است.

داده‌های جرمی یک سابقه فعالیت و تصمیمات نهادهای پلیسی و عدالت کیفری است، که جرم‌ها، مکان‌ها و گروه‌هایی را که در جامعه بیشترین نظارت و کیفری‌سازی را تجربه می‌کنند، مستند می‌کند. به عبارت دیگر، داده‌های موجود در این پایگاه‌ها تعیین می‌کند که چگونه تبعیض‌ها و نابرابری‌های ساختاری در جامعه، بر اساس نژاد، طبقه، جنسیت و عوامل دیگر رخ داده است. به عنوان مثال، در انگلیس، افراد سیاه‌پوست به نسبت بیشتری نسبت به افراد سفید‌پوست در هر اندازه‌گیری: توقیف و بازجستجو، دستگیری، اقدامات قانونی پیش‌تری، زندانی‌شدن و موارد دیگر، مورد نظارت پلیس و کیفری قرار می‌گیرند.

این داده‌ها برای تبرئه یا تأثیر در تصمیمات پلیسی و عدالت کیفری استفاده می‌شود، گاهی اوقات از طریق سیستم‌های “پیش‌بینی” یا مشخصه‌نگاری، مانند نظارت بیشتر، توقیف و بازجستجو، سؤال، دستگیری، اقدامات قانونی، محکومیت و مراقبت. به طور فزاینده، این اطلاعات نیز با سایر نهادهای عمومی به اشتراک گذاشته می‌شود و بر تصمیمات حیاتی، حتی تصمیمات تغییردهنده‌ی زندگی در زمینه‌های مهاجرت، مسکونت، مزایا، حضانت یا محافظت از کودکان، و حتی مجازات یا اخراج در مدارس تأثیر می‌گذارد.

کمپین اتحادیه اروپا:

اتحادیه اروپا در حال تنظیم استفاده از هوش مصنوعی از طریق قانون هوش مصنوعی (AI Act) است. با این حال، قانون پیشنهادی به اندازه کافی دوربر نمی‌روند. با توجه به اینکه کشورهای بیشتری به هوش مصنوعی و سیستم‌های تصمیم‌گیری خودکار در عدالت کیفری روی می‌آورند، امر بسیار حیاتی است که اتحادیه اروپا به عنوان یک مجموعه‌ساز معیاری پیشواز شود.

در گزارش ما به نام “تصمیم‌گیری خودکار ناعادلانه”، ما نشان می‌دهیم و تجزیه و تحلیل می‌کنیم که این فناوری در حال حاضر چگونه در سراسر اروپا استفاده می‌شود و پیامدهای مخرب آن را فاش می‌کنیم.

اتحادیه اروپا باید استفاده از سیستم‌های هوش مصنوعی (AI) و سیستم‌های تصمیم‌گیری خودکار (ADM) در حوزه پلیسی و عدالت کیفری را به همراه سیستم‌های پیش‌بینی، مشخصه‌نگاری و ارزیابی خطر ممنوع کند. باید تدابیر سختگیرانه‌ای در زمینه شفافیت و مسئولیت‌پذیری برای تمام مصارف مرتبط معرفی شود.

با توجه به کمپین ما، رهبران سیاسی اتحادیه اروپا شروع به تشخیص آسیب‌های وارده توسط این سیستم‌ها کرده‌اند و حمایت ما از ممنوعیت آن‌ها را پشتیبانی می‌کنند. در ژوئن 2023، پارلمان اروپا به ممنوعیت سیستم‌های ‘پیش‌بینی‌کننده’ پلیسی، و همچنین معرفی الزامات شفافیت و مسئولیت‌پذیری در یک رأی بزرگ رأی داد. این قانون در حال حاضر در مراحل مذاکرات بین پارلمان اروپا و سایر نهادهای اتحادیه اروپا، شورای اروپا و کمیسیون اروپا قرار دارد.

شورای اروپا:

شورای اروپا، یک سازمان حقوق بشر بین‌المللی با 47 کشور عضو در اروپا، در حال کار بر روی چارچوب حقوقی جدیدی برای استفاده از هوش مصنوعی است. هدف این سازمان ایجاد یک کنوانسیون حقوقی ملزم در زمینه هوش مصنوعی، حقوق بشر، دموکراسی و حکومت قانون است.

ما عضو دیده‌بانی کمیته هوش مصنوعی (CAI)، کمیته شورای اروپا که در حال کار بر روی این چارچوب است، هستیم. به عنوان بخشی از این کمیته، ما در حال کار بر روی تعریف آسیب‌های اساسی سیستم‌های ‘پیش‌بینی‌کننده’، مشخصه‌نگاری و سایر سیستم‌های مبتنی بر داده در حوزه پلیسی و عدالت کیفری هستیم و در کنار سایر سازمان‌ها برای حفاظت از افراد و حقوق آن‌ها کار می‌کنیم.

مشکلات هوش مصنوعی چیست؟

در اجرای هوش مصنوعی و سیستم‌های خودکار در عدالت کیفری، نقص‌های اساسی وجود دارد:

تبعیض و تعصب: هوش مصنوعی و سیستم‌های خودکار در حوزه عدالت کیفری به گونه‌ای طراحی، ساخته و اجرا می‌شوند که باعث تولید نتایج تعصب‌آمیز می‌شوند. این تعصب ممکن است از هدف آن‌ها ناشی شود، مانند هدف گیری به نوعی خاص از جرم یا منطقه خاصی. همچنین ممکن است نتیجه استفاده از داده‌های تعصب‌آمیز باشد که ناشی از نابرابری‌های ساختاری در جامعه و تعصب‌های نهادی در حوزه عدالت کیفری و پلیسیگری است. به عبارت دیگر، این سیستم‌ها ممکن است تبعیض بر اساس نژاد، نژادی، ملیت، وضعیت اجتماعی و دلایل دیگر را تکثیر و تشدید کنند. این تعصب‌های سیستمی، نهادی و اجتماعی به گونه‌ای توأم شده‌اند که مشکوک است که هر سیستم هوش مصنوعی یا سیستم خودکار دیگری نتایج بی‌تعصبی تولید کند.

تخلف از فرض بی‌گناهی: پروفایل‌گذاری افراد و اقدام قبل از ارتکاب جرم، حق فرض بی‌گناهی تا زمان اثبات گناه در مراحل کیفری را تضعیف می‌کند. اغلب این پروفایل‌ها و تصمیمات براساس رفتار فرد نه تنها بلکه بر اساس عواملی که خارج از کنترل او قرار دارد نیز مبتنی هستند. این ممکن است شامل اقدامات افرادی باشد که با آنها تماس دارند یا حتی اطلاعات جمعیت‌شناختی مانند داده‌های مربوط به محل زندگی آنها باشد.

عدم شفافیت و مسیرهای تصحیح: هر سیستمی که تأثیری بر تصمیمات عدالت کیفری دارد، باید قابل مراجعه عمومی باشد. با این حال، موانع فناورانه و تلاش‌های دلiberate برای پنهان کردن نحوه کار سیستم‌ها به دلیل اهداف سودجویانه باعث می‌شود که سخت باشد که چگونه این تصمیمات اتخاذ می‌شوند. افراد اغلب از آن بی‌آگاه هستند که تصمیمی خودکار شده‌اند. روش‌های واضحی برای چالش تصمیمات یا خود سیستم‌ها و راه‌های تصحیح نیز به شدت کمبود دارند.

این مسائل جدی هستند که می‌توانند به طور جدی بر زندگی افراد تأثیر بگذارند، بر تساوی تهدید بیاورند و حقوق بنیادین را نقض کنند، از جمله حق به محاکمه منصفانه.

دولت‌ها چه کارهایی باید انجام دهند؟

دولت‌ها باید قوانینی را پیاده‌سازی کنند که تضمین کنند سیستم‌های هوش مصنوعی و سیستم‌های تصمیم‌گیری خودکار در عدالت کیفری آسیب‌های بنیادینی ایجاد نکنند. در زیر آنچه که دولت‌ها می‌توانند انجام دهند آمده است:

پروفایل‌گذاری: استفاده از سیستم‌های هوش مصنوعی (AI) و سیستم‌های تصمیم‌گیری خودکار (ADM) برای پیش‌بینی، مشخصه‌نگاری و ارزیابی خطر در حوزه پلیسی و عدالت کیفری را ممنوع کنند. تنها یک ممنوعیت کامل می‌تواند افراد را از آسیب‌های بنیادینی که ایجاد می‌کنند، محافظت کند. برای دیگر مصارف هوش مصنوعی و سیستم‌های تصمیم‌گیری خودکار در عدالت کیفری، ما می‌خواهیم که دولت‌ها مجموعه‌ای از تدابیر حقوقی سختگیرانه را پیاده‌سازی کنند:

آزمون تعصب: برای سایر سیستم‌ها، باید آزمون مستقل برای تعصب‌ها در تمام مراحل اجرا، شامل مراحل طراحی و اجرا، الزامی باشد. برای انجام آزمون تعصب، جمع‌آوری داده‌ها در حوزه عدالت کیفری باید بهبود یابد، از جمله داده‌های تفکیک شده بر اساس نژاد، نژادی و ملیت.

شفافیت: باید روش کار سیستم، نحوه عملکرد آن، و چگونگی اتخاذ تصمیم را واضح کند. همه افراد تحت تأثیر این سیستم‌ها و خروجی‌های آنها، مانند مظنونین و متهمین، باید قادر به درک نحوه عملکرد آنها، همچنین عموم مردم باشند.

مدرک تصمیمات: انسان‌های تصمیم‌گیر در حوزه عدالت کیفری باید دلایل تصمیمات خود و مدرک تأثیر تصمیمات توسط سیستم‌های هوش مصنوعی و سیستم‌های تصمیم‌گیری خودکار را ارائه دهند.

مسئولیت: هر زمان که یک سیستم هوش مصنوعی یا سیستم تصمیم‌گیری خودکار تصمیم کیفری مرتبط با فردی داشته یا ممکن است داشته باشد، باید به فرد اطلاع داده شود. همچنین باید رویه‌های واضحی برای افراد جهت چالش تصمیمات هوش مصنوعی و سیستم‌های تصمیم‌گیری خودکار یا خود سیستم‌ها، و مسیرهای تصحیح وجود داشته باشد.

منبع:www.fairtrials.org

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *