خطای غیرانسانی: چگونه با تعصب هوش مصنوعی مقابله کنیم؟
ChatGPT ممکن است تأثیرگذارترین “شخص” سال ۲۰۲۳ باشد. وقتی چت ربات هوش مصنوعی در پایان سال گذشته راه اندازی شد و گفتگویی را که عمدتاً برای دهه ها در محافل فناوری اتفاق افتاده بود، در معرض دید عموم قرار داد.
دانشمندان از این فکر وحشت کردند. از دانشجویانی که مقالاتی را که به طور کامل توسط هوش مصنوعی نوشته شده بود ارسال می کردند، شرکت های فناوری به سرعت چت ربات های هوش مصنوعی خود را بیرون می کشند و صاحبان مشاغل کوچک و کارآفرینان پشت این منحنی ناگهان با ترکیب فناوری های یادگیری ماشینی (که بیشتر آنچه را که ما هوش مصنوعی می نامیم را شامل می شود) مواجه شدند. به شیوههای تجاری روزمره آنها.
اینجاست: هوش مصنوعی باهوش نیست. برنامه های کاربردی یادگیری ماشینی با تشخیص الگوهای پیچیده در داده ها “یاد می گیرند”. کاری که آنها واقعاً انجام می دهند استفاده از الگوریتم ها برای پیش بینی آنچه که بر اساس داده هایی که برای آموزش آنها استفاده می شود منطقی تر است. متأسفانه این به این معنی است که تعصبات انسانی در برنامه ها ختم می شود.
مشهورترین مورد آن در سال ۲۰۱۸ اتفاق افتاد، زمانی که آمازون مجبور شد ابزار استخدام هوش مصنوعی را کنار بگذارد، زیرا علیه زنان تبعیض آمیز بود. چگونه این اتفاق افتاد؟ خب، این سیستم رزومه نامزدهای موفق را به هوش مصنوعی نشان داد. این داده ها برای آموزش هوش مصنوعی در مورد آنچه که در فرآیند انتخاب به دنبال آن باشد، مورد استفاده قرار گرفت. خب، فناوری یک صنعت تحت سلطه مردان است. بنابراین، هوش مصنوعی شروع به رد رزومههایی کرد که دارای ویژگیهای «زنانه» بودند – برای مثال، یک کالج زنانه که در رزومه ذکر شده بود.
افسانه فناوری عینی
Andrea L. Guzman، Ph.D.، دانشیار روزنامه نگاری در دانشگاه ایلینوی شمالی، تحقیقات خود را بر روی ارتباط انسان و ماشین، به ویژه روش، متمرکز می کند. که مردم با فناوریهای واقعی یا پیشرفته تعامل دارند.
گوزمن میگوید .
گوزمن می گوید: «افرادی که سعی در فروش فناوری های هوش مصنوعی دارند، می گویند که به اندازه انسان ها مغرضانه نیستند. “این فقط یک تاکتیک برای فروش است. این برنامه ها توسط انسان ایجاد می شوند و داده های ایجاد شده توسط انسان را پردازش می کنند. تعصب همچنان می تواند وارد شود.”
چگونه انسان ها ناخودآگاه تعصب هوش مصنوعی ایجاد کردند
مردیت بروسارد وقوع و اهمیت سوگیری در فناوری را در کتاب خود بررسی میکند، بیشتر از یک اشکال: مقابله با نژاد، جنسیت و تعصب توانایی در فناوری، که در ماه مارس منتشر شد.
بروسارد می گوید: «هوش مصنوعی خنثی یا عینی نیست. “[این] یک سیستم اجتماعی و فنی است.” او اضافه می کند که برای درک سوگیری در هوش مصنوعی، “شما باید با یادگیری بیشتر در مورد نحوه عملکرد سوگیری در دنیای واقعی شروع کنید.” دانشگاه نیویورک، سالهاست که به این مسائل اشاره کرده است، از جمله در کتاب ۲۰۱۸ خود، بی هوشی مصنوعی: چگونه کامپیوترها دنیا را اشتباه می فهمند.
“ما ناخودآگاه خود را جاسازی می کنیم بروسارد می گوید: تعصب در فناوری هایی که ایجاد می کنیم. “بنابراین وقتی شما یک گروه کوچک همگن از افراد دارید که فناوری ایجاد می کنند، آنگاه فناوری سوگیری های ناخودآگاه جمعی آن گروه کوچک همگن از مردم را دریافت می کند.”
یک راه حل: “داشتن تیم های متنوع که فناوری های ما را ایجاد می کنند. «ما میتوانیم صداهای مختلف تیم را تقویت کنیم و به آنها گوش دهیم.»
بروسارد تأکید میکند که همانطور که هوش مصنوعی توسط انسان ساخته و طراحی شده است، تابع قوانین بشری نیز هست.
بروسارد میگوید: «FTC نامهای قوی منتشر کرده است که در آن اشاره میکند که هیچ استثنایی از قانون برای سیستمهای هوش مصنوعی وجود ندارد». “کارآفرینان باید خود را با قوانین عدم تبعیض موجود آشنا کنند و مطمئن شوند که سیستم های فناوری از قانون پیروی می کنند.”
مقابله با تعصب هوش مصنوعی هنگام استفاده از هوش مصنوعی
Lachlan de Crespigny یکی از بنیانگذاران و یکی از مدیران عامل در Revelo، یک شرکت فناوری که به شرکت های آمریکایی کمک می کند تا توسعه دهندگان نرم افزار از راه دور مستقر در آمریکای لاتین را استخدام کنند. د کرسپینی میگوید: «هر روز، ما با فناوریهای جدید برای یافتن، منبع، انتخاب و تطبیق بهتر نامزدها با شرکتهای سراسر ایالات متحده سر و کار داریم.» “این واقعا مهم است که ما بدانیم که آیا سوگیری وجود دارد.”
د کرسپینی می گوید که Revelo از آزمایش انسانی در هر مرحله برای مقایسه نتایج تیم های انسان و ماشین استفاده می کند تا آنها بتوانند ماشین ها را بیرون بکشند. تعصبات و خطاها و شرکت او با مشکل دیگری روبرو می شود: توهمات هوش مصنوعی. او میگوید: «ابزارهای هوش مصنوعی، بنا به دلایلی، نتایج توهم را ایجاد میکنند. “به دلایلی، هوش مصنوعی اطلاعات تخیلی ایجاد می کند، و بدیهی است که می تواند منجر به نتایج بسیار اشتباه شود.”
عیبیابی تعصب در هوش مصنوعی شما
حسابگیری مشکلات فناوری بهویژه زمانی مهم است که هوش مصنوعی هسته اصلی شرکت یا پیشنهاد شما باشد.
پلتفرم فناوری منابع انسانی Peoplelogic از هوش مصنوعی و نرمافزار یادگیری ماشینی استفاده میکند تا به شرکتها بینشهای مربوط به تعامل و حفظ کارمندان بدون نظرسنجی را ارائه دهد، مشارکت را بر اساس روشی که کارکنان از ابزارهای سازمان استفاده میکنند اندازهگیری میکند.
مت اشمیت، بنیانگذار و مدیر عامل Peoplelogic می گوید: «تعصب در این سیستم ها با داده هایی که شما در آن قرار می دهید شروع می شود. ما در مورد نحوه ساخت مدل های خود بسیار عمدی هستیم. ما تحقیقاتی را که مدلهای خود را بر اساس آن قرار میدهیم، با دقت بررسی میکنیم تا مطمئن شویم که آنها به گونهای انجام میشوند که یک یا آن مخاطب را به حاشیه نبرد. زمانی که مدلهای خود را میسازیم، مطمئن میشویم که دادههای کافی را به گونهای دریافت میکنیم که فاقد هر گونه شناسه خاصی باشد که ممکن است باعث شود هنگام ساختن آن سوگیری ناخودآگاه داشته باشیم.»
<اشمیت همچنین خاطرنشان میکند که اگرچه این نرمافزار تعامل را بدون مکالمه مستقیم اندازهگیری میکند، اما جایگزینی برای تعامل انسانی نیست.
«مدیران و افراد منابع انسانی تمایل دارند این را در افراد فردی یا خود بگنجانند. اشمیت می گوید: جلسات هفتگی تیم. “این بخشی از یک فرهنگ سالم است – اینکه بتوانیم داده هایی را به آنها بدهیم تا به این مکالمات سرویس دهند که قبلاً بخشی از جریان کاری آنهاست.”
اشمیت همچنین موافق است که داشتن چشم انداز متنوع هر زمان که سعی می کنید سوگیری ماشین را درک کنید.
“ما داریم افرادی از چندین کشور مختلف در تیمهای ما و چندین سابقه مختلف حضور دارند.» او میگوید. «جایی که تنوع خاصی نداریم – شاید جنسیت یا قومیت باشد – پس میروم و به دنبال مشاوران بیشتری میگردم تا به ما اطلاع دهند.»
این مقاله در ابتدا در سپتامبر/ اکتبر ۲۰۲۳ ظاهر شد شماره SUCCESS مجله. تمامی حقوق محفوظ است.