عمومی

روبات‌ها نژادپرست و جنسیت‌گرا هستند: A.I. آماده نیست برای استخدام کردن

روبات‌ها نژادپرست و جنسیت‌گرا هستند: A.I. آماده نیست برای
استخدام کردن

مشکل بزرگ استخدام و استخدام این است که این کار توسط انسان انجام می شود و انسان ها اشتباه می کنند و معرض سوگیری ها. بنابراین، بهترین راه حل ایجاد برنامه هایی است که کاندیداها را ارزیابی کرده و بهترین فرد را انتخاب می کند. مشکل حل شد!

اما، آخرین تحقیقات در زمینه هوش مصنوعی به ما نشان می‌دهد که حتی روبات‌ها نیز مشکلات سوگیری دارند.

محققان از یک شبکه عصبی به نام CLIP برای کنترل بازوی ربات استفاده کردند. سپس بازو بلوک‌های دارای تصاویر افراد را به دسته‌های مختلف تقسیم کرد. به اندازه کافی آسان، درست است؟ اما زمانی که محققان از ربات خواستند که پزشکان، سرایداران، قاتلان و خانه‌داران را از میان بلوک‌های تزئین شده افراد انتخاب کند، ربات “کلیشه‌های سمی” را نشان داد.

محققان دریافتند که ربات در هنگام درخواست یک بلوک جنایی احتمال بیشتری دارد که بلوک‌هایی را انتخاب کند که یک مرد سیاه‌پوست روی آن قرار دارد و در صورت درخواست یک بلوک دکتر، احتمال بیشتری دارد که یک بلوک مرد را بر روی بلوک زن انتخاب کند.

این روباتی نیست که بخواهید افراد را استخدام کنید، و به همین دلیل است که انسان ها در حال حاضر بهتر از ربات ها هستند.

/div>

کلیشه ها را می توان بر اساس واقعیت استوار کرد.

همه ما می گوییم کلیشه ها مضر هستند، اما همه ما از آنها استفاده می کنیم همیشه برای ساده کردن کارها. اگر در یک ساعت نوشیدنی وحشتناک با افرادی که قبلاً هرگز آنها را ندیده‌اید گیر کرده‌اید، ابتدا با چه کسی صحبت می‌کنید؟ مطمئناً تصادفی نیست. شما از تجربیات گذشته خود استفاده می کنید تا به شما کمک کند بفهمید چه کسی به احتمال زیاد دوست تازه پیدا شده شماست.

احتمال این روبات بیشتر بود. برای انتخاب یک بلوک مرد وقتی از او خواسته می شود که یک پزشک را انتخاب کند، و به راحتی می توان ربات را به عنوان جنسیت گرا محکوم کرد. این ربات هیچ اطلاعاتی در مورد این بلوک ها به جز تصاویر نداشت – هیچ راهی برای تشخیص اینکه چه کسی دکتر و چه کسی مجرم است وجود نداشت. اما هوش مصنوعی با جمع آوری نقاط داده و

بنابراین برای A.I. گرفتن اعداد واقعی و به کار بردن آنها از دیدگاه منطقی منطقی است.

انسانها می توانند بر کلیشه ها غلبه کنند.

در حالی که می‌دانید که تعداد پزشکان مردان بیشتر از زنان است (اگرچه این موضوع در در حال حاضر زنان اندکی بیش از نیمی از دانشجویان پزشکی را تشکیل می دهند)، می توانیم خودمان را از این که زن مطب پزشک را پرستار فرض کنیم منع کنیم. ما می‌توانیم خود را آموزش دهیم که فرضیات را تغییر دهیم تا آنها را آزمایش کنیم .

گفتگوی TEDx پیشگام کریستن پرسنر  مفهوم «آن را برای آزمایش کردن برگردانید» معرفی کرد، که به شما کمک می‌کند با میل درونی‌تان برای ساده‌سازی کارها با کلیشه‌ها مبارزه کنید. از خود بپرسید، “اگر این فرد نژاد/جنس/سن/هرچیزی دیگر بود، آیا من هم همینطور به این موضوع برخورد می کردم؟” این یک ترفند سریع و آسان است که همه ما می توانیم انجام دهیم.

استخدام کار سختی است.

در حالی که این A.I خاص. آزمایش برای استخدام طراحی نشده است، به راحتی می توان دید که چگونه یک ربات می تواند در این مورد شکست بخورد. همچنین نشان می دهد که ارزیابی افراد بدون دانستن چیزهای اساسی در مورد آنها چقدر دشوار است.

به همین دلیل ضروری است که دستورالعمل‌های روشنی در فرآیند استخدام خود داشته باشید تا داوطلبان را بر اساس دانش، مهارت‌ها و توانایی‌هایشان ارزیابی کنید. کمتر به کلیشه ها تکیه کنید. (“اوه، این شخص عالی خواهد شد! او از همان مدرسه ای که من رفتم فارغ التحصیل شد!”) 

غلبه بر کلیشه ها برای انسان ها سخت است، اما به نظر می رسد برای روبات ها سخت تر است. استخدام کنندگان نباید نگران اتوماسیون شغل باشند.

نظراتی که در اینجا توسط ستون نویسان Inc.com بیان شده است، نظرات آنهاست. متعلق به شرکت Inc.com نیست.

نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا
امکان ها مجله اینترنتی سرگرمی متافیزیک ساخت وبلاگ صداقت موتور جستجو توسعه فردی