مدل هوش مصنوعی در هشت شهر آمریکا آزمایش شد و جنایات را با دقت ۸۰ تا ۹۰ درصد پیشبینی میکند، بدون اینکه دچار هیچ گونه تعصبی باشد.
این الگوریتم یک هفته قبل از وقوع جرم در شهرهای ایالات متحده با موفقیت پیش بینی کرد. چگونه این الگوریتم را ساخته شد؟
شهر شیکاگو و هفت شهر دیگر که به آنها نگاه کردیم شروع به انتشار گزارش رویدادهای جرم و جنایت در ملا عام کردهاند. در شیکاگو، اینها در واقع روزانه با یک هفته تاخیر به روز می شوند.
گزارش این رویدادها حاوی اطلاعاتی درباره آنچه اتفاق افتاده، نوع جنایت، محل وقوع، طول و عرض جغرافیایی، طول جغرافیایی و مقطع زمانی است. همچنین اطلاعاتی در مورد اینکه آیا هنگام تعامل با افسران پلیس دستگیر شده اند یا خیر، داریم.
بنابراین ما با گزارش این رویدادها شروع می کنیم و سپس شهر را به مناطق کوچکی از حدود دو بلوک در دو بلوک – به عرض حدود ۳۰۰ متر دیجیتالی تقسیم می کنیم. و در یکی از آن قسمتها، این سری زمانی از این رویدادهای مختلف، مانند جنایات خشونتآمیز، دزدی، قتل و غیره را خواهیم دید. این منجر به ده ها هزار سری زمانی می شود که در حال تکمیل هستند.
کاری که الگوریتم ما انجام میدهد این است که به این سریهای زمانی متقابل نگاه میکند، سپس متوجه میشود که چگونه به یکدیگر وابسته هستند و چگونه یکدیگر را محدود میکنند، بنابراین چگونه یکدیگر را شکل میدهند. این یک مدل واقعا پیچیده را می سازد.
سپس میتوانید پیشبینی کنید که مثلاً از یک هفته قبل در یک قسمت خاص چه اتفاقی میافتد،، با دقت به اضافه یا منهای یک روز. برای مثال در شیکاگو امروز چهارشنبه است. با استفاده از الگوریتم ما می توان گفت که چهارشنبه هفته آینده در تقاطع خیابان ۳۷ و خیابان جنوب غربی، قتل رخ خواهد داد.
مردم نگرانند که از این به عنوان ابزاری برای زندانی کردن افراد قبل از ارتکاب جرم استفاده شود. این اتفاق نخواهد افتاد، زیرا توانایی انجام آن را ندارد. فقط یک رویداد را در یک مکان خاص پیش بینی می کند. به شما نمی گوید چه کسی قرار است آن را انجام دهد. نمی توان از آن به همان شکلی که در فیلم گزارش اقلیت استفاده می شود استفاده کرد.
در شیکاگو، بیشتر افرادی که جان خود را در جنایات خشونت آمیز از دست می دهند، عمدتاً به دلیل خشونت گروهی است. شبیه فیلم شرلوک هلمز نیست که در آن قتل های پیچیده ای در حال وقوع باشد. اگر یک هفته قبل در مورد آن بدانید، در واقع بسیار قابل اجرا است، می توانید مداخله کنید. این فقط مستلزم تشدید اجرای قانون و اعزام افسران پلیس به آنجا نیست، راههای دیگری نیز برای مداخله اجتماعی وجود دارد تا احتمال وقوع جرم در واقع کاهش یابد و در حالت ایدهآل، هرگز اتفاق نیفتد.
کاری که ما می خواهیم انجام دهیم این است که نوعی بهینه سازی سیاست را امکان پذیر کنیم. نمیخواهیم از این به عنوان یک ابزار سیاستی صرفاً پیشبینیکننده استفاده شود. ما می خواهیم بهینه سازی خط مشی استفاده اصلی از آن باشد. ما باید آن را فعال کنیم، زیرا تنها گذاشتن یک مقاله و داشتن الگوریتم کافی نیست. ما از شهردار یا مدیران می خواهیم که از مدل تولید شده برای انجام شبیه سازی و اطلاع رسانی خط مشی استفاده کنند.
الگوریتم های قبلی از این نوع به دلیل ایجاد سوگیری، به عنوان مثال، از نظر پروفایل های نژادی به شدت مورد انتقاد قرار گرفته اند. این را چگونه حساب می کنید؟
روشهایی که قبلاً امتحان شدهاند عبارتند از یادگیری ماشینی مستقیم، ابزارهای آماده که در آن مجموعه دادهها را میگیرید، مشخص میکنید ویژگیهای مهم چیست، سپس از آن ویژگیها با یک شبکه عصبی پیچیده استاندارد برای تلاش برای پیشبینی استفاده میکنید.
مشکل این رویکرد این است که به محض اینکه می گویید برخی ویژگی ها مهم هستند، احتمالاً چیزهایی را از دست خواهید داد، بنابراین نتایج گمراه کننده ای دریافت خواهید کرد. این اتفاق در اداره پلیس شیکاگو (در سال ۲۰۱۴-۲۰۱۶) افتاد. آنها با استفاده از معادلهای شامل ویژگیهایی مانند سابقه دستگیری، افرادی را در فهرست قرار میدادند که احتمالاً مرتکب یا قربانی خشونتهای مسلحانه بودند. و این باعث شد که بخش بزرگی از سیاهپوستان در لیست قرار بگیرند.
ما سعی کرده ایم تا حد امکان سوگیری را کاهش دهیم. به این ترتیب است که مدل ما با سایر مدل های قبلی متفاوت است.
بسیاری از مردم نگران عدم شفافیت در فرآیند تصمیم گیری هوش مصنوعی هستند. آیا این موضوع مشکلی دارد؟
سیستمهای هوش مصنوعی برای مدلسازی سیستمهای پیچیدهتر و بیشتر استفاده شدهاند، بنابراین جای تعجب نیست که بسیاری از آنها شبیه جعبه سیاه به نظر میرسند. آنها را با نحوه کار قبلی مقایسه کنید. در آن زمان، ما فقط یک معادله دیفرانسیل کوچک برای یک سیستم داشتیم که به ما این احساس را می داد که آن را درک کرده ایم.