آیا ChatGPT اخلاقی است؟ نگاهی به منطقه خاکستری اخلاقی هوش مصنوعی در
رسانه ها
بهعنوان یک روزنامهنگار فناوری و مشاور ارتباطات که در یکپارچهسازی فناوری تخصص دارد، همیشه مشتاقم وارد هر مکالمهای پیرامون هوش مصنوعی و اخلاق رسانهای شوم. و در حال حاضر، بسیاری از متخصصان رسانه از این می ترسند که چگونه هوش مصنوعی روی معیشت آنها تأثیر بگذارد.
اگر ترکیبی از #ChatGPT، #اخراج و #نویسندگان را در TikTok جستجو کنید، تعداد انگشت شماری ویدیو از کپیرایترها و متخصصان بازاریابی وجود دارد که میگویند کارفرمایانشان به آنها اجازه میدهند تا آنها را با هوش مصنوعی جایگزین کنند. فناوری متمرکز همچنین نویسندگانی هستند که می گویند هوش مصنوعی شغلی را نمی پذیرد، اما نویسندگان باید با کار با آن سازگار شوند. اما آیا ChatGPT در رسانه اخلاقی است؟ در مورد هوش مصنوعی چطور؟
دیدگاه من همیشه این بوده است که وظیفه هوش مصنوعی حمایت از انسان است ، آنها را جایگزین نکنید.
ماشین ها نمی توانند یاد بگیرند
برای درک اینکه چرا هوش مصنوعی نمی تواند (یا نباید) جایگزین انسان شود، باید بدانید که یادگیری ماشین چگونه کار می کند. مسئله این است که ماشین ها در واقع یاد نمی گیرند.
دیوید جی. گانکل، دکترا، استاد مطالعات رسانه در بخش مطالعات ارتباطات در دانشگاه ایلینوی شمالی و نویسنده مقدمه ای بر ارتباطات و هوش مصنوعی.
“ماشین ها به روشی که ما یاد می گیرند، نمی آموزند. به طور معمول به یادگیری فکر کنید—این اصطلاحی است که توسط دانشمندان کامپیوتری که به نوعی در جستجوی اصطلاحات برای توضیح، اساساً آمار کاربردی بودند، استفاده میشد، اگر واقعاً میخواهید در مورد آن اطلاعات فنی داشته باشید.» بنابراین، کاری که مدلهای زبان بزرگ و سایر سیستمهای یادگیری ماشین انجام میدهند این است که یک شبکه عصبی راهاندازی میکنند که بر اساس یک درک ریاضی ابتدایی از مغز و نورون و نحوه عملکرد آن مدلسازی شده است.
اساساً، ماشینها به مقادیر زیادی داده نگاه میکنند و یاد میگیرند که چگونه بر اساس الگوهای موجود در دادهها پیشبینی کنند. و گاهی اوقات نتایج کمی کاهش می یابد. به عنوان مثال، من در حال نوشتن یک مدیر خط مشی و رویه برای یک مشتری تجاری بودم و پرسیدم خط مشی اقدام اصلاحی او چیست؟ او از یک هوش مصنوعی پرسید، و آن به مدیریت پیشنهاد کرد که «تحلیل ریشهای برای تعیین عوامل زمینهای که به مشکل کمک میکنند، انجام دهد. این تجزیه و تحلیل می تواند به شناسایی تغییرات خاص مورد نیاز برای جلوگیری از عود مشکل کمک کند.
من فقط خطمشی را خودم نوشتم.
ابزارهای هوش مصنوعی در روزنامه نگاری
OtterAI
جنا دولی مدیر اخبار WNIJ، یک ایستگاه وابسته به NPR در DeKalb، ایلینوی است. خبرنگاران در اتاق خبر او سالهاست که از OtterAI، یک دستیار آنلاین که فایلهای صوتی را ضبط و بهطور خودکار رونویسی میکند، برای رونویسی مصاحبهها استفاده میکنند و این باعث شده است که خبرنگاران او ساعتها و سردردهای بیپایانی را نجات دهند.
«بهطور سنتی قبل از هوش مصنوعی، کاری که انجام میدادید این است که برمیگشتید [و] از یک مصاحبه ۱۰ دقیقهای تا یک مصاحبه دو ساعته و روی یک نوار، دولی می گوید. «قبلاً مجبور بودید «نوار» را وارد کنید، چیزی که به آن میگویند. و این یک تمرین بیدرنگ نشستن، گوش دادن به چند ثانیه و تایپ کردن آن، گوش دادن برای چند ثانیه دیگر [و] تایپ کردن آن بود تا بتوانید رونویسی دستی خود را از مصاحبه بسازید.»
دولی میگوید: «نوار ثبتنام آشکارا بسیار کند بود و تا زمانی که رونویسیهای خود را انجام نداده باشید، حتی نمیتوانید شروع به نوشتن داستان خود کنید. خیلی سریعتر است که بتوانم فقط به آن رونوشت بروید و بگویید «خوب، این خطی است که میخواهم استفاده کنم.» اینجاست که میخواهم از نقل قول خود استفاده کنم.»
YESEO
WNIJ همچنین از ابزاری به نام YESEO استفاده میکند که در موسسه روزنامه نگاری رینولدز (RJI) توسعه یافته است. YESEO یک ابزار هوش مصنوعی در Slack است که مقالات شما را می خواند و کلمات کلیدی و پیشنهاداتی را به شما می دهد.
رایان رستیوو، یکی از همکاران RJI، که این برنامه را توسعه داده است، میگوید زمانی که در Newsday کار میکرد به ایده YESEO رسید و متوجه شد که برخی از داستانهای آنها در صفحه اول Google ظاهر نمیشوند. . او میدانست که احتمالا اتاقهای خبری دیگر روشهای بهینهسازی موتور جستجو یا سئو بهتری دارند و میخواست ابزاری برای کمک به روزنامهنگاران برای دستیابی به مخاطبان خود بیابد. Restivo میگوید: «ما در مورد [چرا صفحه اول را درست نکردیم و] یک برگه Google ایجاد کردیم که به همه کارهایی که رقبا در صفحه انجام میدادند در مقایسه با آنچه که داشتیم نگاه میکرد. . “ما هیچ یک از اطلاعات مرتبطی که قرار بود در هیچ یک از این جستجوها ظاهر شود، نداشتیم… از آنجا الهام گرفتم برای این ایده.”
YESEO منحصر به فرد است زیرا یک متخصص رسانه آن را توسعه داده است. برای سایر متخصصان رسانه – به این معنی که با رعایت اصول اخلاقی رسانه طراحی شده است. یکی از مسائلی که در توسعه این برنامه مطرح شد، حفظ حریم خصوصی داده ها برای اتاق های خبر است. YESEO از رابط برنامه نویسی برنامه OpenAI ساخته شده است، که به سفارشات تجاری اجازه می دهد تا مدل های زبان بزرگ مانند GPT-3 را در برنامه های خود ادغام کنند. Restivo میخواست مطمئن شود که داستانهایی که اتاقهای خبر ارسال میکنند برای آموزش هوش مصنوعی مورد استفاده قرار نخواهند گرفت، بنابراین او تأیید کرد که دادهها برای آموزش استفاده نمیشوند مگر اینکه YESEO صریحاً شرکت کند.
«وقتی من من با پیامدهای حریم خصوصی [این داستانهای منتشر نشده که بسیار ارزشمند هستند و هیچکس نمیخواهد [هیچ کس] دیگری ببیند، و [همه] داستانهای دیگری که وارد سیستم میشوند، میخواهم از دادههای افراد محافظت کنم سر و کار دارم. Restivo میگوید.
تأثیر هوش مصنوعی بر نویسندگان انسان
این ماه، TikToker Emily Hanley ویدئویی پست کرده است که او پیشنهاد مصاحبه کرده است و اظهار داشت که او برای مصاحبه کاری پیشنهاد داده است شغلی که در آن او هوش مصنوعی را برای جایگزینی او آموزش می داد.
گریس الکساندر یک کپی رایتر تمام وقت است که مشتریان خود را به دلیل هوش مصنوعی از دست داده است. او معمولاً فهرستی از مشتریان دارد، و در ماه می، یکی از مشتریانش او را به دلیل اینکه میخواستند نوشتن محتوای هوش مصنوعی را امتحان کنند، او را کنار گذاشت.
«شرکتی که من برای آن کار میکردم و پروژه را برای آن انجام میدادم، در واقع تقریباً از شر تمام فریلنسرها خلاص شد و همه چیز را در داخل خود برد، زیرا آنها میگفتند، «اوه، ما فقط میتوانیم از ChatGPT استفاده کنیم، الکساندر به یاد میآورد.
گونکل فکر نمیکند که کاهش کارکنان سازمانی دائمی خواهد بود.
“من فکر می کنم آنها در نهایت تعداد زیادی از آنها را دوباره در موقعیت های مختلف استخدام خواهند کرد. گونکل می گوید. «پول هوشمند در ایجاد تیمهای واقعاً مؤثر هوش مصنوعی است که میتوانند برای تولید محتوا برای انتشار با یکدیگر همکاری کنند.»
این پیشبینی ممکن است درست باشد. اگرچه الکساندر برای ماه ژوئن کار نداشت، اما به نظر می رسد شرکتی که او در آن کار می کرد، خواهان بازگشت تماس انسانی است.
الکساندر میگوید: «آنها اجازه دادند یک ماه بروم. “آنها قبلاً احساس هایی مانند “آیا برای ژوئیه در دسترس دارید؟” فرستاده اند بنابراین فکر می کنم می خواهم کارم را پس بگیرم.”
آیا ChatGPT و هوش مصنوعی اخلاقی هستند؟
سازمانهای رسانهای احتمالاً در آینده نزدیک از نوعی هوش مصنوعی استفاده خواهند کرد. اما از نظر اخلاقی، استفاده از هوش مصنوعی هنوز یک قلمرو ناشناخته است. دولی میگوید که اتاقهای خبر ممکن است از اتخاذ یک کد اخلاقی سود ببرند.
دولی میگوید: «من به تازگی نوعی سیاست اخلاقی را دیده بودم که [انجمن اخبار دیجیتال تلویزیون رادیو تلویزیون] ارائه کرده بود. “درست مانند ما یک کد اخلاقی برای گزارش اخبار خود داریم، پیشنهاد آنها این بود که [یک کد اخلاقی در هوش مصنوعی] را در اتاق خبر ایجاد کنیم.”
یکی از ملاحظات شفافیت است. هوستون تایمز صفحه ای در وب سایت خود دارد که نحوه و زمان استفاده آنها را توضیح می دهد. ابزارهای هوش مصنوعی برای تولید محتوا
این مورد در مورد رسانههای “صورتی-لغزنده” نیست، سازمانهایی که خود را به عنوان اخبار محلی برای حمایت از نامزدهای سیاسی یا سیاستها معرفی میکنند. مالک Local Government Information Services، یک رسانه صورتی رنگ مستقر در ایلینوی، به Columbia Journalism Review گفت که رسانههای مختلف آن از نرمافزاری استفاده میکنند که دادههای منطقهای را بررسی میکند تا بهطور الگوریتمی بیشتر داستانها را تولید کند.
«متاسفانه، ما قصد داریم این کار را انجام دهیم. گونکل میگوید که بسیاری از این موارد را بیشتر ببینید زیرا الگوریتمها توسعه این نوع محتوا را بسیار آسانتر، بسیار سادهتر و کار بسیار کمتری میکنند. بنابراین نه تنها محتوای انبوه زیادی خواهید داشت که ردیابی به منابع اصلی آن آسان نخواهد بود… بلکه شیوع و گسترش بسیاری از اطلاعات نادرست و اطلاعات نادرست را نیز خواهید داشت.