۷ آذر ۱۴۰۰، ۹:۰۵

مهر گزارش می‌دهد

اما و اگرهای نقش هوش مصنوعی در پیشگیری از وقوع جرم

اما و اگرهای نقش هوش مصنوعی در پیشگیری از وقوع جرم

به اعتقاد بسیاری از حقوقدانان هوش مصنوعی می‌تواند در شناسایی و حذف زمینه‌های جرم و شناسایی علت‌های بزهکاری مفید فایده باشد هر چند که در مسیر بهره گیری از آن اما و اگرهایی وجود دارد.

خبرگزاری مهر، گروه جامعه؛ پیشگیری از وقوع جرم عبارت است از پیش بینی، شناسایی و ارزیابی خطر وقوع جرم و اتخاذ تدابیر و اقدامات لازم برای از میان بردن یا کاهش آن، اگر دستگاه‌ها نقش‌هایی که در زمینه پیشگیری از وقوع جرم بر عهده آنها گذاشته شده است را به درستی اجرا کنند دیگر شاهد جرایم بسیار و هزینه‌های بالای آن در جامعه نیستیم. در گزارش پیش رو که ماحصل کرسی نظریه پردازی برگزار شده از سوی یکی از پژوهشکده‌های حقوقی است؛ کاربرد هوش مصنوعی در پیشگیری از جرم را بررسی کردیم و به منافع و مضرات این مهم پرداخته‌ایم.

مهرنوش ابوذری عضو هیأت علمی دانشکده حقوق و علوم سیاسی دانشگاه تهران در این خصوص به خبرنگار مهر گفت: «هوش مصنوعی به عنوان یک تکنولوژی که در صدد شبیه‌سازی هوش طبیعی انسان و جانشینی و دستیاری هوش انسان و حذف محدودیت‌های بشری است.

فارغ از اینکه هوش مصنوعی در چه بخش‌هایی مورد استفاده قرار گیرد، پیامدهای آن می‌تواند سطوح مختلف از اجرای ساده وظایف گرفته تا تصمیم‌گیری‌های سریع و پیچیده را تحت تأثیر قرار دهد. در عصر پیشرفت بسیار سریع هوش مصنوعی و فناوری رباتیک، بی‌توجهی به فرصت‌ها و چالش‌های این حوزه جامعه را با مسائلی پیش‌بینی نشده روبرو خواهد کرد.

لذا کشورهای پیشرو در این حوزه تلاش می‌کنند ضمن پذیرش و تلاش در توسعه آن، در زمینه قانون‌های حاکم بر طراحی، ساخت، تجاری‌سازی و مسائل اجتماعی، اخلاقی و امنیتی آن نیز پیشتاز باشند.

هوش مصنوعی می‌تواند در شناسایی و حذف زمینه‌های جرم و شناسایی علت‌های بزهکاری کمک کند

این عضو هیأت علمی دانشگاه تهران در ادامه به کاربردهای هوش مصنوعی در فضای حقوقی پرداخت و اظهار کرد: یکی از حوزه‌های کاربردی هوش مصنوعی در علوم جنایی از طریق پیش‌بینی جرم، پیشگیری و دستگیری مظنونین تا صلاحیت سنجی جهت اعمال و اجرای نهادهای ارفاقی و مراقبت‌های پس از خروج از زندان است که در این موضوع بررسی می‌شود. هوش مصنوعی می‌تواند در شناسایی و حذف زمینه‌های جرم و شناسایی علت‌های بزهکاری کمک کند.

ابوذری ادامه داد: «داده‌کاوی و تحلیل داده‌ها، عملکرد شبکه عصبی، یادگیری ماشین، سامانه‌های خبره، پردازش زبان طبیعی و … می‌توانند در تصمیمات مربوط به پیشگیری از جرم مؤثر باشند. وظیفه دولت و قوای عمومی در قبال مسئله بزهکاری و ناامنی، صرفاً مجازات کردن مجرمان نیست بلکه دولت‌ها موظفند در چارچوب اصل حاکمیت قانون و اصول ناظر بر منصفانه بودن رسیدگی‌ها و صیانت از شهروندان، اقدامات به موقع جلوگیری از ورود صدمه و آسیب به افراد انجام دهند و دیگر نمی‌توان با این تصور ساده که ترس از مجازات مانع از ورود صدمات به جامعه می‌شود، به مقابله با آنها پرداخت، بلکه مقابله با آنها مستلزم اتخاذ روش‌هایی است که نه تنها ارتکاب جرایم قریب‌الوقوع توسط مجرمین احتمالی را غیرممکن سازد، بلکه در صورت وقوع، مانع ادامه ضرر بیشتر شود.

با استفاده از هوش مصنوعی می‌توان زمینه‌های خطر را شناسایی کرده و احتمال وقوع جرم را پیش‌بینی کرد

این حقوق دان بیان کرد: البته لازم است به طور قانونمند و عادلانه از وقوع و استمرار جرایم جلوگیری کرده و از ایراد خسارات غیرقابل جبران به اعضای جامعه ممانعت آورد. داده‌هایی که از سیستم‌های نظارتی، دوربین‌های کنترلی یا امنیتی به دست می‌آید، همه قابلیت جمع‌آوری داشته و می‌توانند مورد تحلیل واقع شوند. از این داده‌ها معنا استخراج شده و بر اساس آن برنامه‌ریزی انجام می‌شود. با استفاده از این فناوری می‌توان زمینه‌های خطر را شناسایی کرده و احتمال وقوع جرم را پیش‌بینی کرد.

ابوذری در ادامه به تأثیر هوش مصنوعی در داده‌کاوی تحقیقات جنایی و تجزیه و تحلیل هوشمند جرم پرداخت و افزود: جرم در تحلیل‌ها و تحقیقات جنایی بر اساس سه متغیر فضا و زمان جرم، داده‌های بزهکاری و سوابق پیاده‌سازی شده است. هریک از داده‌های مشخصات طبیعی رفتار، ویژگی‌های صحنه جرم، الگوی رفتاری جرم، مشخصات مجرم از حیث سن، جنس، نژاد و… و ایجاد ارتباط بین داده‌ها می‌تواند منجر به ارتباط و همبستگی آنها با هم شده و در نهایت منجر به شکل‌گیری نرم‌افزارها و سیستم‌های تحقیق جغرافیایی شود که احتمال وقوع جرم و یا مکانی که بزه‌دیده بعدی در یک جرم سریالی وجود خواهد داشت را پیش‌بینی کند.

این عضو هیأت علمی دانشگاه تهران ادامه داد: این امر در عملکرد پلیس و تصمیم‌گیری در برنامه‌های تأمین امنیت مهم خواهد بود. البته پیش‌بینی از جرایم احتمالی و رفتارهای آتی مجرمین پرخطر، صرفاً به‌منظور پیشگیری از وقوع جرم خواهد بود و دستگیری افراد و مجازات آنها، پیش از آنکه جرمی واقع شود، بر اساس قواعد حقوق کیفری مورد منع جدی قرار گرفته است. همچنین استفاده از الگوریتم‌های پیش‌بینی رفتار افراد می‌تواند در تصمیم‌گیری مقام قضائی کارآمد باشد که بر اساس الگوهای ارزیابی ریسک و خطر عمل می‌کنند و درجه خطرناکی فرد را وزن‌دهی و ارزیابی می‌کند. هوش مصنوعی با پیش‌بینی رفتار مرتکبین جهت اعمال نهادهای ارفاقی مانند آزادی مشروط، تعلیق و غیره می‌تواند بسیار کارآمد باشد. همچنین در قرارهای تأمین کیفری که بر اساس درجه خطرناکی متهم و تضمین حضور وی در دادرسی است، کاربرد خواهد داشت.

پیش‌بینی از جرایم احتمالی و رفتارهای آتی مجرمین پرخطر، صرفاً به‌منظور پیشگیری از وقوع جرم خواهد بود و دستگیری افراد و مجازات آنها، پیش از آنکه جرمی واقع شود، بر اساس قواعد حقوق کیفری مورد منع جدی قرار گرفته است

وی در ادامه به چالش‌ها و نگرانی‌های موجود در زمینه استفاده از هوش مصنوعی اشاره کرد و گفت: دو چالش اصلی، مربوط به نقض حریم خصوصی و نقض داده‌های شخصی افراد است که مبادا استفاده از این حجم کلان داده‌ها، منجر به نقض حریم شهروندان و اعمال‌نفوذ بر آنها شود. گرچه روزبه‌روز هوش مصنوعی پیشرفته‌تر می‌شود و می‌تواند از یادگیری ماشین و یادگیری عمیق بیشتر بهره ببرد، حتی خودش تصمیم بگیرد چطور تحلیل کرده و رفتار کند، اما کماکان از داده‌های انسانی و جامعه تأثیر می‌گیرد و این نگرانی وجود دارد که تحت تأثیر سوءگیری‌ها و تعصبات انسان‌ها در مورد مسائل مختلف قرار نگیرد.

این حقوقدان گفت: مهم است که از کاربردهای هوش مصنوعی در عملیات نظامی و تروریستی استفاده نشده و منجر به ظهور ربات‌های تروریست و ربات‌های سربازی نشود که بدون ملاحظات اخلاقی و انسانی دست به هر عمل خطرناکی می‌زنند. همچنین این یک نگرانی کلی است که هوش مصنوعی منجر به بیکاری و حذف انسان‌ها و مشاغل انسانی نشود. در استفاده از این فناوری باید اخلاقیات رعایت شود. استفاده از هوش مصنوعی باید همراه با رعایت حقوق اساسی مردم، امنیت، معیشت و صیانت از شهروندان باشد. سیستم‌های کنترلی و نظارتی نباید منجر به کنترل و سلطه گری بر شهروندان شوند. استفاده از این فناوری برای دولت‌های نیازمند چهارچوبی است که در جهت افزایش اعتماد عمومی، بهبود سطح زندگی مردم، افزایش، تسهیل و بهبود خدمات دولت‌ها بر مردم تعریف می‌شود. لذا استفاده از آن نباید منجر به نقض حریم خصوصی و یا حقوق اساسی و بنیادین انسان شود.

ابوذری در ادامه به روند مقرره گذاری در باب هوش مصنوعی طی چند سال اخیر اشاره کرد و گفت: با توجه به این نگرانی‌ها، کشورهای پیشرو در این زمینه به ایجاد قوانین و وضع قوانین حداقلی در تبیین رویکرد خود و چارچوب استفاده از این فناوری نموده‌اند که آغاز این تلاش‌ها را از سال ۲۰۱۶ در اتحادیه اروپا، ایالات متحده آمریکا می‌توان ملاحظه کرد. نهایتاً تبلور این مقرره گذاری به سال ۲۰۲۱ در قانون هوش مصنوعی توسط اتحادیه اروپا بازمی‌گردد. این مقرره در دوازده عنوان و ۸۵ ماده و با رویکردی ریسک بنیان تنظیم شده است که تلاش نموده با تفکیک کاربردهای هوش مصنوعی در قالب موارد با خطر غیرقابل پذیرش مانند استفاده در سیستم‌های شناسایی بیومتریک از راه دور، ایجاد سیستم رتبه‌بندی اجتماعی شهروندان (ممنوعیت این موارد)، پرخطر (رعایت قواعد تعیین شده با ضمانت اجرا) و کم خطر قواعدی در این زمینه ایجاد کند.

در استفاده از هوش مصنوعی باید مرکزیت و محور انسان باشد

وی در ادامه افزود: به‌کارگیری هوش مصنوعی در علوم مختلف که منجر به تصمیم‌گیری در مورد آزادی‌ها و حریم شهروندان می‌شود، باید تعادلی میان منافع استفاده از این فناوری و حمایت از ارزش‌های بنیادین بشری ایجاد شود؛ یعنی مرکزیت و محور انسان قرار گیرد. لازم هست دو اصل در استفاده از هوش مصنوعی موردتوجه قرار گیرد، نخست، این اصل نباید منجر به ایجاد سلطه و حاکمیت دولت‌ها بر مردم و ایجاد دولت‌های خودمحور شود و دوم، استفاده از هوش مصنوعی نباید باعث حاکمیت خود هوش مصنوعی بر انسان به‌ویژه در گونه‌های تکامل‌یافته‌تر آن در دهه‌های بعدی شود.

همچنین بهزاد لک عضو هیأت علمی دانشگاه علوم انتظامی امین پس از اشاره به تاریخچه مفهوم هوش مصنوعی، بیان داشت: اصل هوش مصنوعی، کار با داده است. مشکلی که در بحث داده وجود دارد، این است که داده کاوها معتقد هستند که ۷۰ درصد کار داده‌کاوی و استفاده از الگوریتم‌های شبکه عصبی، ۷۰ درصد زمان یک داده‌کاو را می‌گیرد. یادگیری ماشین، یادگیری شبکه عصبی، شبکه عصبی مصنوعی، پردازش زبان طبیعی و … از مفاهیمی هستند که در بحث هوش مصنوعی می‌توانیم به آن‌ها بپردازیم.

وی ادامه داد: بحث حریم خصوصی یا بحث اخلاق در استفاده از هوش مصنوعی بسیار مهم است و ما برای این‌که بتوانیم حقوق اساسی شهروندان را در این حوزه رعایت کنیم، باید مؤلفه‌هایی همچون انصاف، پاسخ‌گویی و شفافیت را در نظر بگیریم. این بحث نباید حق برخورداری از فرآیند قانونی، فرض بی‌گناهی و آزادی بیان را نقض کند. در بحث پاسخ‌گویی نیز باید فرهنگ پاسخ‌گویی در سطح یک سازمان ایجاد شود. بحث شفافیت یا داشتن داشبورد مدیریتی نیز باید به‌درستی و هدفمند مدیریت شود.

اولین قدم برای استفاده درست دستگاه‌های مجری قانون از این ابزارها این است که فاصله تصمیم‌گیری تا اقدام به صفر نزدیک شود. استفاده کردن از این شبکه عصبی بعد از وقوع جرم هیچ فایده‌ای ندارد

لک خاطرنشان کرد: اولین قدم برای استفاده درست دستگاه‌های مجری قانون از این ابزارها این است که فاصله تصمیم‌گیری تا اقدام به صفر نزدیک شود. استفاده کردن از این شبکه عصبی بعد از وقوع جرم هیچ فایده‌ای ندارد. واکنش بلادرنگ و عوامل تأثیرگذار محیطی عامل دومی است که می‌تواند در بحث هوشمندسازی خیلی مؤثر باشد.

به گفته وی عامل سوم، یکپارچگی و هماهنگی بین سامانه‌های اطلاعاتی و مرتبط با پایگاه داده‌های توزیع‌شده است. برای این‌که بتوانید یک اشراف اطلاعاتی برای پشتیبانی مکان‌های دارای ریسک داشته باشید، باید یک داشبورد مدیریتی مبتنی بر تحلیل‌های برخط داشته باشید. امروزه تحلیل‌ها بر اساس داده‌هایی که قبلاً در پایگاه داده‌های مختلف تولید شده است، ارائه می‌شود. درنتیجه، با این‌که این ابزارها و فناوری‌ها می‌توانند کمک کنند، اما خروجی آن‌ها برای تصمیم‌گیری مناسب نخواهد بود.

این حقوقدان بیان داشت: امروزه بحث انتقال از جرایم سنتی به سمت جرایم نوظهور مطرح است. پیش‌بینی و پیشگیری از این جرایم مستلزم سرمایه‌گذاری هر چه بیش‌تر روی بحث مدیریت ریسک است که دارای دو فاکتور اساسی، یعنی احتمال وقوع جرم و تأثیر جرم می‌باشد. معمولاً در کارهای شبکه‌های عصبی و دیگر الگوریتم‌ها مفهومی به نام «دقت» داریم. تمامی فناوری‌های مبتنی بر هوش مصنوعی حکم قطعی ندارند و دقت و قابلیت اطمینان آن‌ها ۱۰۰ درصد نیست.

وی افزود: باید یک ساختار و طبقه‌بندی از جرایم داشته باشیم که وقتی می‌خواهیم تصمیم‌گیری کنیم یا از این ابزارها استفاده کنیم، از الگوریتمی استفاده کنیم که دقت آن از سایر الگوریتم‌ها بیش‌تر باشد. ما برای این‌که بتوانیم برنامه‌ای برای استفاده از فناوری‌های هوش مصنوعی جهت پیشگیری از جرم تنظیم کنیم، باید هر سال این برنامه را اصلاح کنیم. باید انواع جرایم سنتی، سایبری و ترکیبی را به‌روزرسانی و دسته‌بندی کنیم و برای دسته‌بندی این جرایم از الگوریتم‌هایی با دقت بالا استفاده کنیم.

وی ادامه داد: نقش پلیس، نهادها، سازمان‌ها و مردم باید مشخص شود. درست است که کاربرد هوش مصنوعی شاید بیش‌تر به بحث مأموریت‌های پلیس، پیش‌بینی و پیشگیری و ردیابی جرایم و … بازگردد، اما سازمان‌های دیگر هم می‌توانند نقش ایفا کنند. هم‌چنین، همواره باید بین امنیت و حریم خصوصی تعادل ایجاد شود؛ نیازهای پلیس برای هوش مصنوعی شناسایی و به‌صورت ساختارمند طبقه‌بندی شود؛ ابتکارات جدید یا در حال اجرای هوش مصنوعی با آگاهی نهادهای مجری قانون شناسایی شود؛ متن‌های قانونی اخلاقی قابل‌قبول برای جمع‌آوری و تجزیه‌وتحلیل داده‌ها برای اجرای قانون تدوین شود؛ مطالعه در مورد جرایم نوظهور که شامل استفاده مخرب از هوش مصنوعی و رباتیک است، صورت بگیرد؛ آگاهی بیشتر از مسائل هوش مصنوعی و رباتیک از طریق بهبود آموزش و تبادل اطلاعات در پلیس توسعه پیدا کند و….

یکی از مهم‌ترین چالش‌ها در حوزه هوش مصنوعی اعتبار داده‌ها است

سپس محمد فرجی‌ها عضو هیأت علمی دانشگاه تربیت مدرس در همین زمینه به خبرنگار مهر گفت: همیشه وقتی بحث انتقال ساختارها، نهادها و ابزارها به بسترهای حقوقی-سیاسی جامعه مطرح می‌شود، این نگرانی وجود دارد که اگر این انتقال صورت بگیرد، آیا ما هم از آن‌ها همان استفاده‌ای را که الان در آلمان و آمریکا می‌شود، می‌کنیم؟.

فرجی‌ها در ادامه گفت: یکی از مهم‌ترین چالش‌ها در حوزه هوش مصنوعی در کنترل یا پیش‌بینی جرم، اعتبار داده‌هایی است که قرار است از طریق هوش مصنوعی آن‌ها را تحلیل کنیم. در حال حاضر، این زیرساخت آماری و اطلاعاتی که در سازمان پلیس و دستگاه قضائی داریم، اعتبار علمی لازم را برای این‌که بتوانیم از طریق آن‌ها جرم را پیش‌بینی کنیم یا از وقوع جرم پیشگیری کنیم و آن را ارزیابی کنیم، ندارد.

به گفته وی مجموع داده‌هایی که در ساختار پلیس و دستگاه قضائی در قالب عناوین مجرمانه و تعداد جرایم یا پرونده‌ها شکل گرفته است، محصول عملکرد اداری و سازمانی این نهادها است، نه واقعیت‌های مجرمانه. نقد دیگری که به زیرساخت‌های آماری و اطلاعاتی وارد است، این است که نظام آمار و اطلاعات جنایی بر اساس جرم‌هایی است که گزارش شده و متهم در آن‌ها شناسایی، دستگیر و محاکمه شده است.

این عضو هیات علمی دانشگاه تربیت مدرس گفت: جنس بزهکاری‌هایی که ما به آن دسترسی نداریم، به لحاظ نوع جرم ارتکابی و نیز، شخصیت مرتکبان کاملاً متفاوت از آن بخشی است که در نوک کوه یخ هستند. بررسی‌ها نشان می‌دهد به دلیل سخت‌گیری‌ها و رفتارهای تبعیض‌آمیز پلیس نسبت به جوانان و گروه‌های حاشیه‌نشین، اصطکاک و تماس بخشی از جامعه با پلیس خیلی بیش‌تر از سایر بخش‌ها است؛ بدون این‌که این افراد لزوماً آدم‌های خطرناکی باشند.

وی ادامه داد: تبعیض‌آمیز بودن رفتار نظام عدالت کیفری و نظارت و کنترل شدید بر گروه‌های مختلف جامعه، وقتی وارد هوش مصنوعی بشود، به شکل تصنعی و غیرواقعی گروه‌هایی از افراد جامعه را خطرناک و گروه‌های دیگر را بسیار کم‌خطر نشان می‌دهد.

در بحث پیشگیری، صرف وجود و تحلیل داده منجر به پیشگیری نمی‌شود. ما برای پیشگیری از جرم باید یک مبنای تئوریک داشته باشیم. تعریفی که در ادبیات پلیسی از پیشگیری وجود دارد با آن تعریفی که ما از پیشگیری در جرم‌شناسی داریم، بسیار متفاوت است

فرجی‌ها گفت: در بحث پیشگیری، صرف وجود و تحلیل داده منجر به پیشگیری نمی‌شود. ما برای پیشگیری از جرم باید یک مبنای تئوریک داشته باشیم. تعریفی که در ادبیات پلیسی از پیشگیری وجود دارد با آن تعریفی که ما از پیشگیری در جرم‌شناسی داریم، بسیار متفاوت است. بخش عمده‌ای از اقدامات پلیس برای کنترل جرم فاقد مبنای نظری است و پلیس در راستای خواست عمومی و انتظارات مردم معمولاً اقداماتی را انجام می‌دهد. این اقدامات نه‌تنها منجر به پیشگیری از جرم نمی‌شود، بلکه منجر به ایجاد طبقه‌ای از مجرمان می‌شود.

همچنین بهرام بیات عضو هیأت علمی دانشگاه عالی دفاع ملی به ماهیت جرم از منظر جامعه‌شناسی اشاره و گفت: جرم ذاتاً از منظر جامعه‌شناسی یک معلول است. ما هر استراتژی و راهبردی که در مورد جرم اجرا کنیم، حتی اگر بتوانیم به‌طور ۱۰۰ درصدی موفق باشیم، یک کار اورژانسی انجام داده‌ایم، نه یک کار بیمارستانی که بیماری‌محور بوده و در بحث پیشگیری، سلامت‌محور باشد.

وی افزود: بر اساس اصل ۱۵۶ قانون اساسی پیشگیری از جرم برعهده قوه قضائیه است. قوه قضائیه با فرد و مجرم مواجه است و نه با ساختارها و زیرساخت‌ها و اصلاً چیزی به نام پیشگیری با محوریت فرد امکان‌پذیر نیست؛ بنابراین، پیشگیری باید یک مرحله عقب‌تر در حوزه آن ساختارها و زیرساخت‌ها انجام شود. در نتیجه، ما به یک‌سری الزامات احتیاج داریم که این الزامات شامل امکانات و زیرساخت‌های سخت‌افزاری، ملاحظات نرم‌افزاری، الزامات مغز افزاری و بحث سازمان‌افزار است.

بیات گفت: در هوشمندسازی با خطر شکل‌گیری جامعه انضباطی مواجه هستیم. اگر شما با تکنولوژی‌های کنترلی و انضباطی نگذارید فردی مرتکب سرقت شود، ممکن است به جای سرقت که در حالت عادی یک جرم سبک‌تری است، یک جرم دیگری انجام دهد؛ حتی به‌رغم وجود این فکر در ذهن مجرم که احتمال دستگیری‌اش بالا است؛ یعنی بازدارندگی را کاهش می‌دهد. علاوه بر این، هوش مصنوعی به همان میزان که می‌تواند در دستگاه‌های نظارتی و کنترلی دقت ایجاد کند، می‌تواند در مجرمین هم یک ظرفیت ایجاد کند.

کد خبر 5361477

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.
  • نظرات حاوی توهین و هرگونه نسبت ناروا به اشخاص حقیقی و حقوقی منتشر نمی‌شود.
  • نظراتی که غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نمی‌شود.
  • captcha