بررسی نگرانی های اخلاقی ChatGPT در مرکز تماس
من اخیراً به شدت در مورد فرصتی که ChatGPT و سایر سیستمهای هوش مصنوعی با توانایی تولید مدیا برای مرکز تماس ارائه میکند، مینویسم. در Talkdesk، ما معتقدیم که ترانسفورماتورهای از پیش آموزشدیده (GPT) مدلهای زبان بزرگ (LLM) سیستمهای تغذیه مانند ChatGPT، ستون فقرات نسل بعدی مراکز تماس به عنوان یک سرویس (CCaaS) خواهند بود. و بدون شک این امر بدین معناست که تجربه مشتری با نسل نو ظهور مراکز ارتباط omnichannel به سطوح جدیدی خواهد رسید و سازمان هایی که به فکر ارتقاء نیافتاده اند، بیشتر عقب خواهند ماند.
تعدادی از رهبران برجسته فناوری – از جمله ایلان ماسک، استیو وزنیاک و اندرو یانگ – علناً خواستار توقف آموزش سیستمهای هوش مصنوعی قدرتمندتر از ChatGPT-4 هستند. نگرانی اخلاقی کلی آنها این است که هوش مصنوعی فراری از توانایی بشریت برای مهار آن برای همیشه پیشی بگیرد.
با توجه به اینکه این نامهای بزرگ بر روی برخی از نکات منفی سیستمهای هوش مصنوعی تاثیر میگذارند، فکر کردم زمان خوبی است تا برخی از مهمترین نگرانیهای اخلاقی این LLMهای جدید را برای مرکز تماس مشخص کنم. هر شرکتی که قصد استفاده از این مدلهای هوش مصنوعی را در مرکز تماس خود دارد، باید از مشکلات احتمالی آگاه باشد و فرآیندهایی را در نظر بگیرد که به اطمینان از تجارب ایمن و مثبت مشتری کمک میکند.
پنج نگرانی اخلاقی ChatGPT در مرکز تماس.
۱. شفافیت
اولین نگرانی اخلاقی در مورد استفاده از ChatGPT و دیگر سیستمهای هوش مصنوعی مولد در مرکز تماس، شفافیت است، که هم برای شفاف بودن در مورد نحوه اتخاذ تصمیم مبتنی بر هوش مصنوعی و هم این واقعیت که در وهله اول توسط هوش مصنوعی گرفته شده است، صدق میکند. مشتریان حق دارند بدانند که آیا تعامل آنها توسط هوش مصنوعی انجام شده است یا خیر. اگر مشتریان باور کنند که با یک انسان صحبت میکنند و بعداً متوجه شوند که مثلاً با یک ربات چت صحبت میکنند، میتواند اعتماد به شرکت را از بین ببرد و به روابط مشتری با برند آسیب برساند. افشای کامل به مشتری هنگام طراحی چت بات ها و کارشناسان مجازی بسیار مهم است.
۲. تعصب
یکی دیگر از نگرانی های اخلاقی، احتمال سوگیری در پاسخ های چت بات ها و عوامل مجازی است. ChatGPT یک مدل یادگیری ماشینی است که بر روی حجم وسیعی از داده های متنی آموزش داده شده است و این خطر وجود دارد که این داده ها به نوعی سوگیری شوند. برای مثال، اگر یک بررسی خودکار کیفیت یک الگوی گفتار را بر الگوی دیگر ترجیح دهد، این میتواند منجر به رفتار نابرابر با عواملی شود که زمینههای آنها شامل یادگیری آن الگوی گفتار است. به عبارت دیگر، این نوع سوگیری می تواند منجر به تبعیض شود.
۳. امنیت و حریم خصوصی داده ها
هنگام استفاده از ChatGPT، تعاملات کاربر ثبت و ذخیره میشود و در صورت عدم وجود تدابیر امنیتی مناسب، مکالمات شخصی میتواند برای هر کسی قابل دسترسی باشد. مانند هر سیستم نرمافزاری که دادههای شناسایی شخصی را مدیریت میکند، دادههایی که از طریق LLM جریان مییابند باید رمزگذاری شده باقی بمانند و از تمام ملاحظات حفظ حریم خصوصی دادهها پیروی کنند که دادههای مشتریان را ایمن نگه میدارد.
۴. خروجی واقعی
یکی دیگر از نگرانیهای اخلاقی، پتانسیل ChatGPT برای «توهم» یا ساختن پاسخهایی است که ممکن است درست نباشند، اما این حقایق جایگزین را به روشی قانعکننده منتقل کند. البته، ما نمیخواهیم اطلاعات نادرست به مشتریان بدهیم، به خصوص اگر از آن برای تصمیمگیری در زندگی استفاده کنند.
۵. جابجایی شغل.
در نهایت، نگرانی از جابجایی شغل وجود دارد. همانطور که شرکت های بیشتری به چت ربات های مبتنی بر هوش مصنوعی مانند ChatGPT روی می آورند، این خطر وجود دارد که عوامل مرکز تماس انسانی شغل خود را از دست بدهند. شرکت ها باید تأثیری را که اتوماسیون می تواند بر کارمندانشان بگذارد در نظر بگیرند و اقداماتی را برای کاهش هر گونه تأثیر منفی انجام دهند. بهویژه، مدیران مرکز تماس باید فرصتهای جدیدی را برای افزایش رضایت کارشناسان با معرفی ابزارهایی تصور کنند که کارهای ساده را خودکار میکند و به مأموران کمک میکند کار خود را سریعتر انجام دهند.
از GTP-4 فراتر نباید رفت؟
سرعت پیشرفتهای اخیر در LLM شگفتانگیز بوده است، و همانطور که در بالا ذکر شد نگرانیهای قانونی وجود دارد. توسعه سریع هوش مصنوعی بدون پادمان (حداقل ها، در نظر گرفتن و کاهش پیامدهای منفی) می تواند منجر به این شود که این پیامدهای منفی در مقیاسی بسیار بزرگتر از آنچه که قبلاً شروع کرده بودند، بخ وجود بیایند.
مؤسسه آینده زندگی (FLI) – نویسنده نامه سرگشاده ای که خواستار توقف است – می خواهد اطمینان حاصل کند که فناوری هوش مصنوعی به گونه ای توسعه یافته است که به نفع بشریت باشد و از خطرات احتمالی جلوگیری کند. آنها نگران هستند که آزمایشگاههای اصلی هوش مصنوعی در یک مسابقه تسلیحاتی “خارج از کنترل” هستند و در حال حاضر، هیچ نظارت مناسبی برای اطمینان از اینکه آنها به شیوهای اخلاقی کار میکنند وجود ندارد.

SVP، مدیر بخش رشد محصول و مهندسی در Talkdesk، نرم افزار مرکز تماس یونیکورن به عنوان یک سرویس (CCaaS). قبلاً در Directly رهبری هوش مصنوعی را بر عهده داشت: خودکارسازی خدمات مشتری با عوامل مجازی مبتنی بر هوش مصنوعی. مدیر عامل Sparked.com: استفاده از مدل های یادگیری ماشین برای پیش بینی ریزش، حفظ و LTV. مهندس نرم افزار در The Main Quad: توسط Student Advantage به دست آمد. رهبری مهندسی برای وب سایت مصرف کننده The North Face به مدت پنج سال. CTO در استارت آپ SaaS با مشتریانی از جمله سام آدامز، هیوندای، اولد ناوی، آی بی ام، کلاب سیرا و سایون.
دیدگاه خود را بنویسید