هوش مصنوعی می تواند تصمیمات خود را شرح بدهد؟!

به گزارش مجله ویراپارس، پاکا به عنوان نمونه شرح داد که چگونه هوش مصنوعی قابل شرح می تواند به مدل مبتنی بر هوش مصنوعی مورد استفاده بانک ها یاری کند.

هوش مصنوعی می تواند تصمیمات خود را شرح بدهد؟!

بعضی از شرکت های فعال در حوزه هوش مصنوعی برای پیشگیری از تعصب و غرض ورزی احتمالی این فناوری، باور دارند که هوش مصنوعی باید برای تصمیمات خود، دلایل قانع نماینده و به دور از تبعیض داشته باشد.

هوش مصنوعی هم مانند انسان، با غرض ورزی کار می نماید. در حقیقت می توان گفت: هر شخص یا چیزی که قابلیت تصمیم گیری داشته باشد، با غرض ورزی عمل می نماید و هنگام انتخاب، به بعضی از عوامل بیش از عوامل دیگر بها می دهد.

با وجود این، همان گونه هوش مصنوعی در سال های اخیر به خاطر غرض ورزی و تبعیض علیه گروه های خاصی از جمله زنان و رنگین پوستان، بدنام شده، شرکت ها نیز به همان اندازه در غلبه بر تبعیض الگوریتم های آن، مهارت بیشتر به دست می آورند.

روشی که آن ها غالبا برای این کار استفاده می نمایند، با عنوان هوش مصنوعی با قابلیت شرح (Explainable AI) شناخته می گردد. در گذشته و حتی اکنون، عملکرد بیشتر اطلاعات مربوط به هوش مصنوعی، مانند یک جعبه سیاه ارائه می شده است.

افرادی که کار رمزگذاری را انجام می دهند، شبکه های عصبی الگوریتم ها را طراحی کردند، اما هنگامی که این اطلاعات منتشر شد، شبکه های عصبی بدون نظارت افرادی که آن ها را برنامه ریزی نموده بودند، به کار خود ادامه دادند. در هر حال، شرکت ها در ابتدا متوجه این مشکل نشدند و هنگامی به آن پی بردند که بسیار دیر شده بود.

این مشکل هوش مصنوعی، موضوعی چالش برانگیز است. بیشتر استارتاپ ها و شرکت ها در حال حاضر، روش ها و پلتفرم هایی را براساس هوش مصنوعی قابل شرح ارائه می دهند. یکی از جالب ترین این روش ها، روش ارائه شده توسط استارتاپ موسوم به فیدلر لبز (Fiddler Labs) است.

این استارتاپ که در سانفرانسیسکو و توسط مهندسان پیشین فیسبوک و سامسونگ تاسیس شده است، نوعی موتور جستجوی مبتنی بر هوش مصنوعی را به شرکت ها پیشنهاد می نماید که همه عوامل مرتبط با تصمیم گیری را نمایش می دهد. آمیت پاکا (Amit Paka)، از بنیان گذاران این استارتاپ گفت: نرم افزار ما موجب می گردد که رفتار مدل های هوش مصنوعی، واضح و قابل درک باشند.

پاکا به عنوان نمونه شرح داد که چگونه هوش مصنوعی قابل شرح می تواند به مدل مبتنی بر هوش مصنوعی مورد استفاده بانک ها یاری کند.

وی اضافه کرد: ورودی های بسیاری وجود دارند که هنگام تصمیم گیری برای یک کاربرد خاص، مورد توجه قرار می گیرند. در یک فضای قدیمی بدون وجود فیدلر، گفتن چگونگی و دلیل تاثیر هر ورودی بر نتیجه، سخت و یا تقریبا غیرممکن است، اما شاید بانک ها با وجود هوش مصنوعی قابل شرح بتوانند تاثیر هر ورودی را نسبت به خروجی معین نمایند.

پاکا اضافه کرد: این قابلیت شرح دادن، به ابداع نمایندگان هوش مصنوعی، کاربران مالی، تنظیم نمایندگان و کاربران نهایی امکان می دهد تا درک بهتری در خصوص دلیل پیش بینی های خاص داشته باشند. این موضوع، در خصوص تعصب و اخلاقیات مربوط به هوش مصنوعی، از اهمیت بالایی برخوردار است، زیرا به شرکت ها امکان می دهد تا تبعیض های احتمالی علیه گروه های خاص را شناسایی نمایند. به علاوه، چنین قابلیتی می تواند به شرکت ها در اصلاح مدل های هوش مصنوعی پیش از به کار بردن آن ها در مقیاس عظیم یاری کند.

پاکا ادامه داد: تعصب نژادی هوش مصنوعی در الگوریتم های مربوط به سلامت و تبعیض آن در تصمیم گیری و قضاوت، فقط چند نمونه از مسائل مربوط به غرض ورزی هوش مصنوعی هستند. الگوریتم های پیچیده هوش مصنوعی در حال حاضر مانند جعبه سیاه عمل می نمایند و حتی با داشتن عملکرد خوب، فعالیت داخلی آن ها ناشناخته و غیرقابل شرح دادن است.

یکی از دلایل اهمیت هوش مصنوعی قابل شرح در غلبه بر غرض ورزی الگوریتم ها، این است که شاید جنسیت، نژاد و مقوله های دیگری از این دست، صریحا رمزگذاری نشده اند. در چنین مواردی، هوش مصنوعی قابل شرح ضروری است تا به شرکت ها در برداشتن تبعیض های عمیق داده هایی که این الگوریتم های پیچیده را تغذیه می نمایند، یاری کند.

با توجه به این دلایل، ابداع مدل های هوش مصنوعی که قابلیت بیشتری برای شرح داشته باشند، کلید اصلاح عواملی است که به بروز غرض ورزی می انجامند. این مدل ها همچنین می توانند رعایت مقررات توسط سیستم های هوش مصنوعی را نیز تضمین نمایند. تنظیمات بیشتر می تواند به اطمینان بیشتر از عملکرد عادلانه هوش مصنوعی و قابل شرح بودن آن یاری نمایند.

نکته مثبت این است که شرکت های دیگری به غیر از فیدلر لبز نیز راهکار ها و پلتفرم های مبتنی بر هوش مصنوعی را ارائه می دهند که قابل مقایسه و شرح دادن هستند. برای مثال، یک استارتاپ فعال در حوزه هوش مصنوعی موسوم به کیندی (Kyndi) که در این زمینه فعالیت می نماید، در ماه ژوئیه امسال پیروز شد بودجه ای به مبلغ 20 میلیون دلار به دست بیاورد و در حال حاضر نیز از پلتفرم های خود برای آنالیز دلیل هر تصمیم گیری استفاده می نماید.

شرکت دیگری که در حوزه هوش مصنوعی قابل شرح فعالیت دارد، شرکت آمریکایی زد ادونسد کامپیوتینگ (Z Advanced Computing) است. این شرکت در ماه اوت اعلام نمود که بودجه ای را از نیروی هوایی آمریکا دریافت نموده است تا فناوری تشخیص چهره سه بعدی را بر اساس هوش مصنوعی قابل شرح ارائه دهد.

شرکت ویانی سیستمز (Vianai Systems) که در ماه سپتامبر و توسط مدیرعامل پیشین شرکت اینفوسیس (Infosys) بنیان گذاشته شد نیز هوش مصنوعی قابل شرح دادن را برای گروهی از سازمان ها و در طیف وسیعی از نقش ها به کار می گیرد.

شرکت های دیگری نیز در حوزه هوش مصنوعی قابل شرح فعالیت دارند که نرم افزار ها و راهکار های آنها، بهبود قابل توجهی را در نحوه عملکرد هوش مصنوعی ایجاد می نماید.

با وجود همه فوایدی که چنین برنامه هایی به همراه دارند، نکات منفی استفاده از آن ها غیرقابل انکار هستند. این امکان وجود دارد که هوش مصنوعی نهایتا اثر متضادی بر شرکت هایی مانند فیدلر لبز و کیندی داشته باشد.

از آنجا که دولت ها یا شرکت ها می توانند عوامل دقیق یک الگوریتم را برای تصمیم گیری به کار ببرند، ممکن است بعضی از سازمان های غیراخلاقی، از موتور های هوش مصنوعی قابل شرح استفاده نمایند تا الگوریتم های آنها، غرض ورزی بیشتری داشته باشد.

منبع: فرادید
انتشار: 20 اردیبهشت 1399 بروزرسانی: 6 مهر 1399 گردآورنده: virapars.ir شناسه مطلب: 858

به "هوش مصنوعی می تواند تصمیمات خود را شرح بدهد؟!" امتیاز دهید

امتیاز دهید:

دیدگاه های مرتبط با "هوش مصنوعی می تواند تصمیمات خود را شرح بدهد؟!"

* نظرتان را در مورد این مقاله با ما درمیان بگذارید