چگونه اخلاق هوش مصنوعی را در شرکت خود عملی کنید
چگونه اخلاق هوش مصنوعی را در شرکت خود عملی کنید
در سالهای اخیر، تغییری در شرکتها به وجود آمده است و صرفاً در نظر گرفتن پیامدهای فنی فناوری آنها در حال تصدیق و تلاش برای پیشبرد راهحلهایی است که فناوریهای آنها را تضمین میکند، از جمله هوش مصنوعی (AI)، مسئولانه عمل کنید. و طبق موسسه تجاری IBM نظرسنجی ارزشی اخلاق هوش مصنوعی که از ۱۲۰۰ مدیر اجرایی در ۲۲ کشور در ۲۲ صنعت مورد بررسی قرار گرفت، تقریباً ۸۰ درصد از مدیران اجرایی آماده انجام اقداماتی برای افزایش پاسخگویی هوش مصنوعی هستند. این میزان از تنها ۲۰ درصد در سال ۲۰۱۸ افزایش یافته است. آگاهی از اهمیت اخلاق هوش مصنوعی نیز به طور قابل توجهی در سراسر اتاق هیئت مدیره گسترش یافته است: ۸۰ درصد از پاسخ دهندگان در نظرسنجی امسال به یک مدیر اجرایی غیر فنی به عنوان “قهرمان” اصلی برای اخلاق هوش مصنوعی اشاره کردند. در مقایسه با ۱۵ درصد در سال ۲۰۱۸٫
این پیشرفت تشویق کننده است. با این حال، کار زیادی باقی مانده است تا اطمینان حاصل شود که مزایای هوش مصنوعی از همه افراد به طور برابر و با موفقیت پشتیبانی می کند. بر اساس دادههای مطالعه IBV، امروزه تقریباً ۸۵ درصد از کسبوکارها احساس میکنند پرداختن به اخلاق هوش مصنوعی مهم است. با این حال، تنها ۴۰ درصد از مصرفکنندگان میگویند که به شرکتها در توسعه برنامههای هوش مصنوعی جدید اعتماد دارند – همان نسبتی که در سال ۲۰۱۸، تقریباً چهار سال پیش، به شرکتها اعتماد داشتند.
هوش مصنوعی دارای پتانسیل تحول آفرین است. بر اساس Gartner، و حدود ۶٫۲ میلیارد ساعت از بهره وری کارگران صرفه جویی کرد. همانطور که سرمایه گذاری و پذیرش به طور چشمگیری رشد می کند، همراه با توسعه راه حل های بدون کد یا کم کد که به افراد امکان می دهد هوش مصنوعی خود را بدون دانش فنی گسترده سفارشی کنند، هوش مصنوعی همچنان در دسترس تر و تاثیرگذارتر برای توده ها خواهد بود. هوش مصنوعی میتواند ظرفیت انسان را در زمینههای متعددی، از تحقیق و تجزیه و تحلیل گرفته تا تکمیل وظایف اساسی روزانه مانند مدیریت تقویم و امور مالی، افزایش دهد.
هوش مصنوعی همچنین به ما این امکان را میدهد تا درباره آنچه ممکن است بیشتر فکر کنیم. بیش از ۳۰ سال طول کشید تا دانشمندان به صورت دستی از ۳٫۱ میلیارد جفت پایهنقشه برداری کنند. > از ژنوم انسان – یک پروژه حیاتی برای درک چگونگی درمان شرایط پیچیده و حفظ زندگی انسان مورد نیاز است. اکنون، از طریق ترکیب هوش مصنوعی و هوش انسانی، میتوانیم فرآیندهای مشابه را سادهسازی و تسریع کنیم و با موفقیت بیشتری به چالشهای مهم امروزی رسیدگی کنیم.
و، ما قبلاً شاهد پیشرفتهای چشمگیر هوش مصنوعی بودهایم: سال گذشته، محققان در آیبیام، آکسفورد، کمبریج و آزمایشگاه ملی فیزیکی نشان دادند که چگونه پپتیدهای ضد میکروبی طراحیشده توسط هوش مصنوعی با مدلهای محاسباتی غشای سلولی تعامل دارند، پیشرفتی که میتواند پیامدهای گستردهای برای کشف دارو داشته باشد.
اطمینان از قابل اعتماد بودن هوش مصنوعی یک اقدام متعادل کننده است — اما کاری ارزشمند.
در حالی که وعده های هوش مصنوعی عالی هستند، اگر مطمئن نباشیم که قابل اعتماد است، یعنی منصفانه، قابل توضیح، شفاف، قوی است و به داده ها و بینش ما احترام می گذارد، مشکلات نیز وجود دارد. تعریف “هوش مصنوعی غیرقابل اعتماد” ممکن است برای اکثر افراد واضح باشد: تبعیض آمیز، مبهم، سوء استفاده، و در غیر این صورت کمتر از انتظارات عمومی از اعتماد است. با این حال، پیشرفت هوش مصنوعی قابل اعتماد با در نظر گرفتن تعادل عملی که گاهی اوقات مورد نیاز است، میتواند چالش برانگیز باقی بماند: برای مثال، بین «توضیحپذیری» – توانایی درک منطق پشت نتایج الگوریتم هوش مصنوعی – و «استحکام» – دقت الگوریتم در رسیدن. در یک نتیجه.
سازمانها دیگر نمیتوانند هوش مصنوعی را بدون پرداختن به این مبادلات و سایر مسائل اخلاقی اتخاذ کنند. سوال این است که آیا آنها به صورت استراتژیک، هدفمند و متفکرانه با آنها مقابله می کنند یا نه. مطمئناً آسان نخواهد بود. اما، گامهای مشخصی وجود دارد که کسبوکارها و سازمانها میتوانند همین الان شروع به برداشتن برای حرکت در مسیر درست کنند.
روشهای اخلاقی هوش مصنوعی را در زمینه استراتژیک مناسب تنظیم کنید.
<.>
همانند هر ابتکار گسترده ای، اجرای اخلاق هوش مصنوعی با تعیین استراتژی مناسب برای موفقیت آغاز می شود. اهمیت ایجاد هوش مصنوعی قابل اعتماد برای استراتژی و اهداف تجاری را در نظر بگیرید: خالقان ارزش کلیدی که می توانند با هوش مصنوعی تسریع شوند کدامند؟ موفقیت چگونه سنجیده می شود؟
همچنین مهم است که نقش نوآوری هوش مصنوعی در استراتژی و رویکرد رشد یک سازمان را در نظر بگیریم. سازمانی یک “پیشگام” است که دائماً مرزهای به کارگیری فناوری جدید را در عمل جابجا می کند، یا یک “پیرو سریع” که رویکردهای آزمایش شده تری را ترجیح می دهد؟ پاسخ به این سؤالات به شناسایی و کدگذاری اصول کلیدی اخلاق هوش مصنوعی و تعیین تعادل انسان + ماشین در یک سازمان کمک می کند.
یک رویکرد حاکمیتی برای اجرای اخلاق هوش مصنوعی ایجاد کنید.
گام بعدی این است که یک کسب و کار چارچوب حاکمیت اخلاقی هوش مصنوعی خود را ایجاد کند. این با ترکیب طیف کاملی از دیدگاه ها (به عنوان مثال، رهبران کسب و کار، مشتریان، مشتریان، مقامات دولتی و جامعه در کل) در مورد موضوعاتی مانند حریم خصوصی، استحکام، انصاف، توضیح پذیری و شفافیت شروع می شود. همچنین به معنای اطمینان از تنوع هویت و دیدگاه است: تحقیقات جدید IBM نشان میدهد که تعداد زنان در تیمهای هوش مصنوعی ۵٫۵ برابر کمتر از سازمان است، به همراه ۴ برابر کمتر افراد LGBT+، و ۱٫۷ برابر کمتر از سیاهپوستان، بومیها و افراد رنگین پوست. (BIPOC).
ایجاد چارچوب حاکمیتی مناسب همچنین از کسبوکارها میخواهد که مشخصات ریسک و آستانه دادههای هوش مصنوعی خود را نیز شناسایی کنند. به عنوان یک ساختار داخلی، سیاستها، فرآیندها و در نهایت سیستمی برای نظارت بر اخلاق هوش مصنوعی در داخل و خارج.
گام بعدی این است که یک کسب و کار چارچوب حاکمیت اخلاقی هوش مصنوعی خود را ایجاد کند. این با ترکیب طیف کاملی از دیدگاه ها (به عنوان مثال، رهبران کسب و کار، مشتریان، مشتریان، مقامات دولتی و جامعه در کل) در مورد موضوعاتی مانند حریم خصوصی، استحکام، انصاف، توضیح پذیری و شفافیت شروع می شود. همچنین به معنای اطمینان از تنوع هویت و دیدگاه است: تحقیقات جدید IBM نشان میدهد که تعداد زنان در تیمهای هوش مصنوعی ۵٫۵ برابر کمتر از سازمان است، به همراه ۴ برابر کمتر افراد LGBT+، و ۱٫۷ برابر کمتر از سیاهپوستان، بومیها و افراد رنگین پوست. (BIPOC).
ایجاد چارچوب حاکمیتی مناسب همچنین از کسبوکارها میخواهد که مشخصات ریسک و آستانه دادههای هوش مصنوعی خود را نیز شناسایی کنند. به عنوان یک ساختار داخلی، سیاستها، فرآیندها و در نهایت سیستمی برای نظارت بر اخلاق هوش مصنوعی در داخل و خارج.
اخلاق را در چرخه حیات هوش مصنوعی ادغام کنید.
<. div class="standardText" readability="40">
بالاخره، اخلاق هوش مصنوعی یک فرآیند “تنظیم آن و فراموش کردن” نیست. هنگامی که یک سازمان سیستم راهبری و نگهداری خود را ایجاد کرد، تعدادی گام اضافی وجود دارد که باید انجام شود. برای اولین بار، باید به تعامل با ذینفعان داخلی و خارجی خود در مورد موضوع ادامه دهد، همچنین باید داده های مربوط به انطباق را جمع آوری، گزارش و بررسی کند. همچنین باید تلاشهای آموزشی و تنوع را برای تیمهای داخلی هدایت و پشتیبانی کند، و روشها و ابزارهای یکپارچهای را تعریف کند که از اصول اخلاق هوش مصنوعی دفاع میکنند.
هوش مصنوعی تنها راه خود را بیشتر در زندگی روزمره ما پیدا می کند — باید با مسئولیت پذیری و به گونه ای پیشرفت کرد که اطمینان حاصل شود که اصول اخلاقی در هسته این فناوری قرار دارند. خوشبختانه، کتاب بازی برای اخلاق هوش مصنوعی واضحتر، کاربردیتر و ملموستر میشود. اما، بر عهده همه ما – در سراسر صنعت، دولت، تحقیقات و دانشگاه و کل جامعه است که از آن دفاع کنیم.
شراکت