22-03-2020، 14:28
برخی از شرکتهای فعال در حوزه هوش مصنوعی برای پیشگیری از تعصب و غرضورزی احتمالی این فناوری، باور دارند که هوش مصنوعی باید برای تصمیمات خود، دلایل قانعکننده و به دور از تبعیض داشته باشد.
به گزارش بیگ بنگ به نقل از ایسنا، هوش مصنوعی هم مانند انسان، با غرضورزی کار میکند. در حقیقت میتوان گفت هر شخص یا چیزی که قابلیت تصمیمگیری داشته باشد، با غرضورزی عمل میکند و هنگام انتخاب، به برخی از عوامل بیش از عوامل دیگر بها میدهد. با وجود این، همانگونه هوش مصنوعی در سالهای اخیر به خاطر غرضورزی و تبعیض علیه گروههای خاصی از جمله زنان و رنگینپوستان، بدنام شده، شرکتها نیز به همان اندازه در غلبه بر تبعیض الگوریتمهای آن، مهارت بیشتر به دست میآورند.
روشی که آنها غالبا برای این کار استفاده میکنند، با عنوان “هوش مصنوعی با قابلیت توضیح”(Explainable AI) شناخته میشود. در گذشته و حتی اکنون، عملکرد بیشتر اطلاعات مربوط به هوش مصنوعی، مانند یک جعبه سیاه ارائه میشده است. افرادی که کار رمزگذاری را انجام میدهند، شبکههای عصبی الگوریتمها را طراحی کردند اما هنگامی که این اطلاعات منتشر شد، شبکههای عصبی بدون نظارت افرادی که آنها را برنامهریزی کرده بودند، به کار خود ادامه دادند. در هر حال، شرکتها در ابتدا متوجه این مشکل نشدند و هنگامی به آن پی بردند که بسیار دیر شده بود.
این مشکل هوش مصنوعی، موضوعی چالشبرانگیز است. بیشتر استارتاپها و شرکتها در حال حاضر، روشها و پلتفرمهایی را براساس هوش مصنوعی قابل توضیح ارائه میدهند. یکی از جالبترین این روشها، روش ارائه شده توسط استارتاپ موسوم به “فیدلر لبز”(Fiddler Labs) است. این استارتاپ که در سانفرانسیسکو و توسط مهندسان پیشین فیسبوک و سامسونگ تاسیس شده است، نوعی موتور جستجوی مبتنی بر هوش مصنوعی را به شرکتها پیشنهاد میکند که همه عوامل مرتبط با تصمیمگیری را نمایش میدهد. “آمیت پاکا”(Amit Paka)، از بنیانگذاران این استارتاپ گفت: نرمافزار ما موجب میشود که رفتار مدلهای هوش مصنوعی، واضح و قابل درک باشند.
پاکا به عنوان نمونه توضیح داد که چگونه هوش مصنوعی قابل توضیح میتواند به مدل مبتنی بر هوش مصنوعی مورد استفاده بانکها کمک کند. وی افزود: ورودیهای بسیاری وجود دارند که هنگام تصمیمگیری برای یک کاربرد خاص، مورد توجه قرار میگیرند. در یک فضای قدیمی بدون وجود فیدلر، گفتن چگونگی و دلیل تاثیر هر ورودی بر نتیجه، دشوار و یا تقریبا غیرممکن است اما شاید بانکها با وجود هوش مصنوعی قابل توضیح بتوانند تاثیر هر ورودی را نسبت به خروجی مشخص کنند.
پاکا اضافه کرد: این قابلیت توضیح دادن، به ابداعکنندگان هوش مصنوعی، کاربران اقتصادی، تنظیمکنندگان و کاربران نهایی امکان میدهد تا درک بهتری در مورد دلیل پیشبینیهای خاص داشته باشند. این موضوع، در مورد تعصب و اخلاقیات مربوط به هوش مصنوعی، از اهمیت بالایی برخوردار است زیرا به شرکتها امکان میدهد تا تبعیضهای احتمالی علیه گروههای خاص را شناسایی کنند. به علاوه، چنین قابلیتی میتواند به شرکتها در اصلاح مدلهای هوش مصنوعی پیش از به کار بردن آنها در مقیاس بزرگ کمک کند.
پاکا ادامه داد: تعصب نژادی هوش مصنوعی در الگوریتمهای مربوط به سلامت و تبعیض آن در تصمیمگیری و قضاوت، فقط چند نمونه از مشکلات مربوط به غرضورزی هوش مصنوعی هستند. الگوریتمهای پیچیده هوش مصنوعی در حال حاضر مانند جعبه سیاه عمل میکنند و حتی با داشتن عملکرد خوب، فعالیت داخلی آنها ناشناخته و غیرقابل توضیح دادن است.
یکی از دلایل اهمیت هوش مصنوعی قابل توضیح در غلبه بر غرضورزی الگوریتمها، این است که شاید جنسیت، نژاد و مقولههای دیگری از این دست، صریحا رمزگذاری نشدهاند. در چنین مواردی، هوش مصنوعی قابل توضیح لازم است تا به شرکتها در برداشتن تبعیضهای عمیق دادههایی که این الگوریتمهای پیچیده را تغذیه میکنند، کمک کند.
با توجه به این دلایل، ابداع مدلهای هوش مصنوعی که قابلیت بیشتری برای توضیح داشته باشند، کلید اصلاح عواملی است که به بروز غرضورزی میانجامند. این مدلها همچنین میتوانند رعایت مقررات توسط سیستمهای هوش مصنوعی را نیز تضمین کنند. تنظیمات بیشتر میتواند به اطمینان بیشتر از عملکرد عادلانه هوش مصنوعی و قابل توضیح بودن آن کمک کنند.
نکته مثبت این است که شرکتهای دیگری به غیر از فیدلر لبز نیز راهحلها و پلتفرمهای مبتنی بر هوش مصنوعی را ارائه میدهند که قابل مقایسه و توضیح دادن هستند. برای مثال، یک استارتاپ فعال در حوزه هوش مصنوعی موسوم به “کیندی”(Kyndi) که در این زمینه فعالیت میکند، در ماه ژوئیه سال جاری موفق شد بودجهای به مبلغ ۲۰ میلیون دلار به دست بیاورد و در حال حاضر نیز از پلتفرمهای خود برای بررسی دلیل هر تصمیمگیری استفاده میکند.
شرکت دیگری که در حوزه هوش مصنوعی قابل توضیح فعالیت دارد، شرکت آمریکایی “زد ادونسد کامپیوتینگ”(Z Advanced Computing) است. این شرکت در ماه اوت اعلام کرد که بودجهای را از نیروی هوایی آمریکا دریافت کرده است تا فناوری تشخیص چهره سهبعدی را بر اساس هوش مصنوعی قابل توضیح ارائه دهد.
شرکت “ویانی سیستمز”(Vianai Systems) که در ماه سپتامبر و توسط مدیرعامل پیشین شرکت “اینفوسیس”(Infosys) بنیان گذاشته شد نیز هوش مصنوعی قابل توضیح دادن را برای گروهی از سازمانها و در طیف وسیعی از نقشها به کار میگیرد. شرکتهای دیگری نیز در حوزه هوش مصنوعی قابل توضیح فعالیت دارند که نرمافزارها و راهحلهای آنها، بهبود قابل توجهی را در نحوه عملکرد هوش مصنوعی ایجاد میکند.
با وجود همه فوایدی که چنین برنامههایی به همراه دارند، نکات منفی استفاده از آنها غیرقابل انکار هستند. این امکان وجود دارد که هوش مصنوعی نهایتا اثر متضادی بر شرکتهایی مانند فیدلر لبز و کیندی داشته باشد. از آنجا که دولتها یا شرکتها میتوانند عوامل دقیق یک الگوریتم را برای تصمیمگیری به کار ببرند، ممکن است برخی از سازمانهای غیراخلاقی، از موتورهای هوش مصنوعی قابل توضیح استفاده کنند تا الگوریتمهای آنها، غرضورزی بیشتری داشته باشد.
دیدن لینک ها برای شما امکان پذیر نیست. لطفا ثبت نام کنید یا وارد حساب خود شوید تا بتوانید لینک ها را ببینید.
به گزارش بیگ بنگ به نقل از ایسنا، هوش مصنوعی هم مانند انسان، با غرضورزی کار میکند. در حقیقت میتوان گفت هر شخص یا چیزی که قابلیت تصمیمگیری داشته باشد، با غرضورزی عمل میکند و هنگام انتخاب، به برخی از عوامل بیش از عوامل دیگر بها میدهد. با وجود این، همانگونه هوش مصنوعی در سالهای اخیر به خاطر غرضورزی و تبعیض علیه گروههای خاصی از جمله زنان و رنگینپوستان، بدنام شده، شرکتها نیز به همان اندازه در غلبه بر تبعیض الگوریتمهای آن، مهارت بیشتر به دست میآورند.
روشی که آنها غالبا برای این کار استفاده میکنند، با عنوان “هوش مصنوعی با قابلیت توضیح”(Explainable AI) شناخته میشود. در گذشته و حتی اکنون، عملکرد بیشتر اطلاعات مربوط به هوش مصنوعی، مانند یک جعبه سیاه ارائه میشده است. افرادی که کار رمزگذاری را انجام میدهند، شبکههای عصبی الگوریتمها را طراحی کردند اما هنگامی که این اطلاعات منتشر شد، شبکههای عصبی بدون نظارت افرادی که آنها را برنامهریزی کرده بودند، به کار خود ادامه دادند. در هر حال، شرکتها در ابتدا متوجه این مشکل نشدند و هنگامی به آن پی بردند که بسیار دیر شده بود.
این مشکل هوش مصنوعی، موضوعی چالشبرانگیز است. بیشتر استارتاپها و شرکتها در حال حاضر، روشها و پلتفرمهایی را براساس هوش مصنوعی قابل توضیح ارائه میدهند. یکی از جالبترین این روشها، روش ارائه شده توسط استارتاپ موسوم به “فیدلر لبز”(Fiddler Labs) است. این استارتاپ که در سانفرانسیسکو و توسط مهندسان پیشین فیسبوک و سامسونگ تاسیس شده است، نوعی موتور جستجوی مبتنی بر هوش مصنوعی را به شرکتها پیشنهاد میکند که همه عوامل مرتبط با تصمیمگیری را نمایش میدهد. “آمیت پاکا”(Amit Paka)، از بنیانگذاران این استارتاپ گفت: نرمافزار ما موجب میشود که رفتار مدلهای هوش مصنوعی، واضح و قابل درک باشند.
پاکا به عنوان نمونه توضیح داد که چگونه هوش مصنوعی قابل توضیح میتواند به مدل مبتنی بر هوش مصنوعی مورد استفاده بانکها کمک کند. وی افزود: ورودیهای بسیاری وجود دارند که هنگام تصمیمگیری برای یک کاربرد خاص، مورد توجه قرار میگیرند. در یک فضای قدیمی بدون وجود فیدلر، گفتن چگونگی و دلیل تاثیر هر ورودی بر نتیجه، دشوار و یا تقریبا غیرممکن است اما شاید بانکها با وجود هوش مصنوعی قابل توضیح بتوانند تاثیر هر ورودی را نسبت به خروجی مشخص کنند.
پاکا اضافه کرد: این قابلیت توضیح دادن، به ابداعکنندگان هوش مصنوعی، کاربران اقتصادی، تنظیمکنندگان و کاربران نهایی امکان میدهد تا درک بهتری در مورد دلیل پیشبینیهای خاص داشته باشند. این موضوع، در مورد تعصب و اخلاقیات مربوط به هوش مصنوعی، از اهمیت بالایی برخوردار است زیرا به شرکتها امکان میدهد تا تبعیضهای احتمالی علیه گروههای خاص را شناسایی کنند. به علاوه، چنین قابلیتی میتواند به شرکتها در اصلاح مدلهای هوش مصنوعی پیش از به کار بردن آنها در مقیاس بزرگ کمک کند.
دیدن لینک ها برای شما امکان پذیر نیست. لطفا ثبت نام کنید یا وارد حساب خود شوید تا بتوانید لینک ها را ببینید.
پاکا ادامه داد: تعصب نژادی هوش مصنوعی در الگوریتمهای مربوط به سلامت و تبعیض آن در تصمیمگیری و قضاوت، فقط چند نمونه از مشکلات مربوط به غرضورزی هوش مصنوعی هستند. الگوریتمهای پیچیده هوش مصنوعی در حال حاضر مانند جعبه سیاه عمل میکنند و حتی با داشتن عملکرد خوب، فعالیت داخلی آنها ناشناخته و غیرقابل توضیح دادن است.
یکی از دلایل اهمیت هوش مصنوعی قابل توضیح در غلبه بر غرضورزی الگوریتمها، این است که شاید جنسیت، نژاد و مقولههای دیگری از این دست، صریحا رمزگذاری نشدهاند. در چنین مواردی، هوش مصنوعی قابل توضیح لازم است تا به شرکتها در برداشتن تبعیضهای عمیق دادههایی که این الگوریتمهای پیچیده را تغذیه میکنند، کمک کند.
با توجه به این دلایل، ابداع مدلهای هوش مصنوعی که قابلیت بیشتری برای توضیح داشته باشند، کلید اصلاح عواملی است که به بروز غرضورزی میانجامند. این مدلها همچنین میتوانند رعایت مقررات توسط سیستمهای هوش مصنوعی را نیز تضمین کنند. تنظیمات بیشتر میتواند به اطمینان بیشتر از عملکرد عادلانه هوش مصنوعی و قابل توضیح بودن آن کمک کنند.
نکته مثبت این است که شرکتهای دیگری به غیر از فیدلر لبز نیز راهحلها و پلتفرمهای مبتنی بر هوش مصنوعی را ارائه میدهند که قابل مقایسه و توضیح دادن هستند. برای مثال، یک استارتاپ فعال در حوزه هوش مصنوعی موسوم به “کیندی”(Kyndi) که در این زمینه فعالیت میکند، در ماه ژوئیه سال جاری موفق شد بودجهای به مبلغ ۲۰ میلیون دلار به دست بیاورد و در حال حاضر نیز از پلتفرمهای خود برای بررسی دلیل هر تصمیمگیری استفاده میکند.
شرکت دیگری که در حوزه هوش مصنوعی قابل توضیح فعالیت دارد، شرکت آمریکایی “زد ادونسد کامپیوتینگ”(Z Advanced Computing) است. این شرکت در ماه اوت اعلام کرد که بودجهای را از نیروی هوایی آمریکا دریافت کرده است تا فناوری تشخیص چهره سهبعدی را بر اساس هوش مصنوعی قابل توضیح ارائه دهد.
شرکت “ویانی سیستمز”(Vianai Systems) که در ماه سپتامبر و توسط مدیرعامل پیشین شرکت “اینفوسیس”(Infosys) بنیان گذاشته شد نیز هوش مصنوعی قابل توضیح دادن را برای گروهی از سازمانها و در طیف وسیعی از نقشها به کار میگیرد. شرکتهای دیگری نیز در حوزه هوش مصنوعی قابل توضیح فعالیت دارند که نرمافزارها و راهحلهای آنها، بهبود قابل توجهی را در نحوه عملکرد هوش مصنوعی ایجاد میکند.
با وجود همه فوایدی که چنین برنامههایی به همراه دارند، نکات منفی استفاده از آنها غیرقابل انکار هستند. این امکان وجود دارد که هوش مصنوعی نهایتا اثر متضادی بر شرکتهایی مانند فیدلر لبز و کیندی داشته باشد. از آنجا که دولتها یا شرکتها میتوانند عوامل دقیق یک الگوریتم را برای تصمیمگیری به کار ببرند، ممکن است برخی از سازمانهای غیراخلاقی، از موتورهای هوش مصنوعی قابل توضیح استفاده کنند تا الگوریتمهای آنها، غرضورزی بیشتری داشته باشد.