عمومیمقالات

آیا ChatGPT اخلاقی است؟ نگاهی به منطقه خاکستری اخلاقی هوش مصنوعی در رسانه ها

آیا ChatGPT اخلاقی است؟ نگاهی به منطقه خاکستری اخلاقی هوش مصنوعی در
رسانه ها

به‌عنوان یک روزنامه‌نگار فناوری و مشاور ارتباطات که در یکپارچه‌سازی فناوری تخصص دارد، همیشه مشتاقم وارد هر مکالمه‌ای پیرامون هوش مصنوعی و اخلاق رسانه‌ای شوم. و در حال حاضر، بسیاری از متخصصان رسانه از این می ترسند که چگونه هوش مصنوعی روی معیشت آنها تأثیر بگذارد.

اگر ترکیبی از #ChatGPT، #اخراج و #نویسندگان را در TikTok جستجو کنید، تعداد انگشت شماری ویدیو از کپی‌رایترها و متخصصان بازاریابی وجود دارد که می‌گویند کارفرمایانشان به آنها اجازه می‌دهند تا آنها را با هوش مصنوعی جایگزین کنند. فناوری متمرکز همچنین نویسندگانی هستند که می گویند هوش مصنوعی شغلی را نمی پذیرد، اما نویسندگان باید با کار با آن سازگار شوند. اما آیا ChatGPT در رسانه اخلاقی است؟ در مورد هوش مصنوعی چطور؟

دیدگاه من همیشه این بوده است که وظیفه هوش مصنوعی حمایت از انسان است ، آنها را جایگزین نکنید.

ماشین ها نمی توانند یاد بگیرند

برای درک اینکه چرا هوش مصنوعی نمی تواند (یا نباید) جایگزین انسان شود، باید بدانید که یادگیری ماشین چگونه کار می کند. مسئله این است که ماشین ها در واقع یاد نمی گیرند.

دیوید جی. گانکل، دکترا، استاد مطالعات رسانه در بخش مطالعات ارتباطات در دانشگاه ایلینوی شمالی و نویسنده مقدمه ای بر ارتباطات و هوش مصنوعی.

“ماشین ها به روشی که ما یاد می گیرند، نمی آموزند. به طور معمول به یادگیری فکر کنید—این اصطلاحی است که توسط دانشمندان کامپیوتری که به نوعی در جستجوی اصطلاحات برای توضیح، اساساً آمار کاربردی بودند، استفاده می‌شد، اگر واقعاً می‌خواهید در مورد آن اطلاعات فنی داشته باشید.» بنابراین، کاری که مدل‌های زبان بزرگ و سایر سیستم‌های یادگیری ماشین انجام می‌دهند این است که یک شبکه عصبی راه‌اندازی می‌کنند که بر اساس یک درک ریاضی ابتدایی از مغز و نورون و نحوه عملکرد آن مدل‌سازی شده است.

اساساً، ماشین‌ها به مقادیر زیادی داده نگاه می‌کنند و یاد می‌گیرند که چگونه بر اساس الگوهای موجود در داده‌ها پیش‌بینی کنند. و گاهی اوقات نتایج کمی کاهش می یابد. به عنوان مثال، من در حال نوشتن یک مدیر خط مشی و رویه برای یک مشتری تجاری بودم و پرسیدم خط مشی اقدام اصلاحی او چیست؟ او از یک هوش مصنوعی پرسید، و آن به مدیریت پیشنهاد کرد که «تحلیل ریشه‌ای برای تعیین عوامل زمینه‌ای که به مشکل کمک می‌کنند، انجام دهد. این تجزیه و تحلیل می تواند به شناسایی تغییرات خاص مورد نیاز برای جلوگیری از عود مشکل کمک کند.

من فقط خط‌مشی را خودم نوشتم.

ابزارهای هوش مصنوعی در روزنامه نگاری

OtterAI

جنا دولی مدیر اخبار WNIJ، یک ایستگاه وابسته به NPR در DeKalb، ایلینوی است. خبرنگاران در اتاق خبر او سال‌هاست که از OtterAI، یک دستیار آنلاین که فایل‌های صوتی را ضبط و به‌طور خودکار رونویسی می‌کند، برای رونویسی مصاحبه‌ها استفاده می‌کنند و این باعث شده است که خبرنگاران او ساعت‌ها و سردردهای بی‌پایانی را نجات دهند.

«به‌طور سنتی قبل از هوش مصنوعی، کاری که انجام می‌دادید این است که برمی‌گشتید [و] از یک مصاحبه ۱۰ دقیقه‌ای تا یک مصاحبه دو ساعته و روی یک نوار، دولی می گوید. «قبلاً مجبور بودید «نوار» را وارد کنید، چیزی که به آن می‌گویند. و این یک تمرین بی‌درنگ نشستن، گوش دادن به چند ثانیه و تایپ کردن آن، گوش دادن برای چند ثانیه دیگر [و] تایپ کردن آن بود تا بتوانید رونویسی دستی خود را از مصاحبه بسازید.»

دولی می‌گوید: «نوار ثبت‌نام آشکارا بسیار کند بود و تا زمانی که رونویسی‌های خود را انجام نداده باشید، حتی نمی‌توانید شروع به نوشتن داستان خود کنید. خیلی سریع‌تر است که بتوانم فقط به آن رونوشت بروید و بگویید «خوب، این خطی است که می‌خواهم استفاده کنم.» اینجاست که می‌خواهم از نقل قول خود استفاده کنم.» 

YESEO

WNIJ همچنین از ابزاری به نام YESEO استفاده می‌کند که در موسسه روزنامه نگاری رینولدز (RJI) توسعه یافته است. YESEO یک ابزار هوش مصنوعی در Slack است که مقالات شما را می خواند و کلمات کلیدی و پیشنهاداتی را به شما می دهد.

رایان رستیوو، یکی از همکاران RJI، که این برنامه را توسعه داده است، می‌گوید زمانی که در Newsday کار می‌کرد به ایده YESEO رسید و متوجه شد که برخی از داستان‌های آن‌ها در صفحه اول Google ظاهر نمی‌شوند. . او می‌دانست که احتمالا اتاق‌های خبری دیگر روش‌های بهینه‌سازی موتور جستجو یا سئو بهتری دارند و می‌خواست ابزاری برای کمک به روزنامه‌نگاران برای دستیابی به مخاطبان خود بیابد. Restivo می‌گوید: «ما در مورد [چرا صفحه اول را درست نکردیم و] یک برگه Google ایجاد کردیم که به همه کارهایی که رقبا در صفحه انجام می‌دادند در مقایسه با آنچه که داشتیم نگاه می‌کرد. . “ما هیچ یک از اطلاعات مرتبطی که قرار بود در هیچ یک از این جستجوها ظاهر شود، نداشتیم… از آنجا الهام گرفتم برای این ایده.”

YESEO منحصر به فرد است زیرا یک متخصص رسانه آن را توسعه داده است. برای سایر متخصصان رسانه – به این معنی که با رعایت اصول اخلاقی رسانه طراحی شده است. یکی از مسائلی که در توسعه این برنامه مطرح شد، حفظ حریم خصوصی داده ها برای اتاق های خبر است. YESEO از رابط برنامه نویسی برنامه OpenAI ساخته شده است، که به سفارشات تجاری اجازه می دهد تا مدل های زبان بزرگ مانند GPT-3 را در برنامه های خود ادغام کنند. Restivo می‌خواست مطمئن شود که داستان‌هایی که اتاق‌های خبر ارسال می‌کنند برای آموزش هوش مصنوعی مورد استفاده قرار نخواهند گرفت، بنابراین او تأیید کرد که داده‌ها برای آموزش استفاده نمی‌شوند مگر اینکه YESEO صریحاً شرکت کند. 

«وقتی من من با پیامدهای حریم خصوصی [این داستان‌های منتشر نشده که بسیار ارزشمند هستند و هیچ‌کس نمی‌خواهد [هیچ کس] دیگری ببیند، و [همه] داستان‌های دیگری که وارد سیستم می‌شوند، می‌خواهم از داده‌های افراد محافظت کنم سر و کار دارم. Restivo می‌گوید.

تأثیر هوش مصنوعی بر نویسندگان انسان

این ماه، TikToker Emily Hanley ویدئویی پست کرده است که او پیشنهاد مصاحبه کرده است و اظهار داشت که او برای مصاحبه کاری پیشنهاد داده است شغلی که در آن او هوش مصنوعی را برای جایگزینی او آموزش می داد.

گریس الکساندر یک کپی رایتر تمام وقت است که مشتریان خود را به دلیل هوش مصنوعی از دست داده است. او معمولاً فهرستی از مشتریان دارد، و در ماه می، یکی از مشتریانش او را به دلیل اینکه می‌خواستند نوشتن محتوای هوش مصنوعی را امتحان کنند، او را کنار گذاشت.

«شرکتی که من برای آن کار می‌کردم و پروژه را برای آن انجام می‌دادم، در واقع تقریباً از شر تمام فریلنسرها خلاص شد و همه چیز را در داخل خود برد، زیرا آنها می‌گفتند، «اوه، ما فقط می‌توانیم از ChatGPT استفاده کنیم، الکساندر به یاد می‌آورد.

گونکل فکر نمی‌کند که کاهش کارکنان سازمانی دائمی خواهد بود.

“من فکر می کنم آنها در نهایت تعداد زیادی از آنها را دوباره در موقعیت های مختلف استخدام خواهند کرد. گونکل می گوید. «پول هوشمند در ایجاد تیم‌های واقعاً مؤثر هوش مصنوعی است که می‌توانند برای تولید محتوا برای انتشار با یکدیگر همکاری کنند.»

این پیش‌بینی ممکن است درست باشد. اگرچه الکساندر برای ماه ژوئن کار نداشت، اما به نظر می رسد شرکتی که او در آن کار می کرد، خواهان بازگشت تماس انسانی است.

الکساندر می‌گوید: «آنها اجازه دادند یک ماه بروم. “آنها قبلاً احساس هایی مانند “آیا برای ژوئیه در دسترس دارید؟” فرستاده اند بنابراین فکر می کنم می خواهم کارم را پس بگیرم.”

آیا ChatGPT و هوش مصنوعی اخلاقی هستند؟

سازمان‌های رسانه‌ای احتمالاً در آینده نزدیک از نوعی هوش مصنوعی استفاده خواهند کرد. اما از نظر اخلاقی، استفاده از هوش مصنوعی هنوز یک قلمرو ناشناخته است. دولی می‌گوید که اتاق‌های خبر ممکن است از اتخاذ یک کد اخلاقی سود ببرند.

دولی می‌گوید: «من به تازگی نوعی سیاست اخلاقی را دیده بودم که [انجمن اخبار دیجیتال تلویزیون رادیو تلویزیون] ارائه کرده بود. “درست مانند ما یک کد اخلاقی برای گزارش اخبار خود داریم، پیشنهاد آنها این بود که [یک کد اخلاقی در هوش مصنوعی] را در اتاق خبر ایجاد کنیم.”

یکی از ملاحظات شفافیت است. هوستون تایمز صفحه ای در وب سایت خود دارد که نحوه و زمان استفاده آنها را توضیح می دهد. ابزارهای هوش مصنوعی برای تولید محتوا

این مورد در مورد رسانه‌های “صورتی-لغزنده” نیست، سازمان‌هایی که خود را به عنوان اخبار محلی برای حمایت از نامزدهای سیاسی یا سیاست‌ها معرفی می‌کنند. مالک Local Government Information Services، یک رسانه صورتی رنگ مستقر در ایلینوی، به Columbia Journalism Review گفت که رسانه‌های مختلف آن از نرم‌افزاری استفاده می‌کنند که داده‌های منطقه‌ای را بررسی می‌کند تا به‌طور الگوریتمی بیشتر داستان‌ها را تولید کند.

«متاسفانه، ما قصد داریم این کار را انجام دهیم. گونکل می‌گوید که بسیاری از این موارد را بیشتر ببینید زیرا الگوریتم‌ها توسعه این نوع محتوا را بسیار آسان‌تر، بسیار ساده‌تر و کار بسیار کمتری می‌کنند. بنابراین نه تنها محتوای انبوه زیادی خواهید داشت که ردیابی به منابع اصلی آن آسان نخواهد بود… بلکه شیوع و گسترش بسیاری از اطلاعات نادرست و اطلاعات نادرست را نیز خواهید داشت.

منبع : www.success.com
نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا
امکان ها مجله اینترنتی سرگرمی متافیزیک ساخت وبلاگ صداقت موتور جستجو توسعه فردی