بررسی نگرانی های اخلاقی ChatGPT در مرکز تماس

من اخیراً به شدت در مورد فرصتی که ChatGPT و سایر سیستم‌های هوش مصنوعی با توانایی تولید مدیا برای مرکز تماس ارائه می‌کند، می‌نویسم. در Talkdesk، ما معتقدیم که ترانسفورماتورهای از پیش آموزش‌دیده (GPT) مدل‌های زبان بزرگ (LLM) سیستم‌های تغذیه مانند ChatGPT، ستون فقرات نسل بعدی مراکز تماس به عنوان یک سرویس (CCaaS) خواهند بود. و بدون شک این امر بدین معناست که تجربه مشتری با نسل نو ظهور مراکز ارتباط omnichannel به سطوح جدیدی خواهد رسید و سازمان هایی که به فکر ارتقاء نیافتاده اند، بیشتر عقب خواهند ماند.

تعدادی از رهبران برجسته فناوری – از جمله ایلان ماسک، استیو وزنیاک و اندرو یانگ – علناً خواستار توقف آموزش سیستم‌های هوش مصنوعی قدرتمندتر از ChatGPT-4 هستند. نگرانی اخلاقی کلی آنها این است که هوش مصنوعی فراری از توانایی بشریت برای مهار آن برای همیشه پیشی بگیرد.

با توجه به اینکه این نام‌های بزرگ بر روی برخی از نکات منفی سیستم‌های هوش مصنوعی تاثیر می‌گذارند، فکر کردم زمان خوبی است تا برخی از مهم‌ترین نگرانی‌های اخلاقی این LLM‌های جدید را برای مرکز تماس مشخص کنم. هر شرکتی که قصد استفاده از این مدل‌های هوش مصنوعی را در مرکز تماس خود دارد، باید از مشکلات احتمالی آگاه باشد و فرآیندهایی را در نظر بگیرد که به اطمینان از تجارب ایمن و مثبت مشتری کمک می‌کند.

پنج نگرانی اخلاقی ChatGPT در مرکز تماس.

۱. شفافیت

اولین نگرانی اخلاقی در مورد استفاده از ChatGPT و دیگر سیستم‌های هوش مصنوعی مولد در مرکز تماس، شفافیت است، که هم برای شفاف بودن در مورد نحوه اتخاذ تصمیم مبتنی بر هوش مصنوعی و هم این واقعیت که در وهله اول توسط هوش مصنوعی گرفته شده است، صدق می‌کند. مشتریان حق دارند بدانند که آیا تعامل آنها توسط هوش مصنوعی انجام شده است یا خیر. اگر مشتریان باور کنند که با یک انسان صحبت می‌کنند و بعداً متوجه شوند که مثلاً با یک ربات چت صحبت می‌کنند، می‌تواند اعتماد به شرکت را از بین ببرد و به روابط مشتری با برند آسیب برساند. افشای کامل به مشتری هنگام طراحی چت بات ها و کارشناسان مجازی بسیار مهم است.

۲. تعصب

یکی دیگر از نگرانی های اخلاقی، احتمال سوگیری در پاسخ های چت بات ها و عوامل مجازی است. ChatGPT یک مدل یادگیری ماشینی است که بر روی حجم وسیعی از داده های متنی آموزش داده شده است و این خطر وجود دارد که این داده ها به نوعی سوگیری شوند. برای مثال، اگر یک بررسی خودکار کیفیت یک الگوی گفتار را بر الگوی دیگر ترجیح دهد، این می‌تواند منجر به رفتار نابرابر با عواملی شود که زمینه‌های آنها شامل یادگیری آن الگوی گفتار است. به عبارت دیگر، این نوع سوگیری می تواند منجر به تبعیض شود.

۳. امنیت و حریم خصوصی داده ها

هنگام استفاده از ChatGPT، تعاملات کاربر ثبت و ذخیره می‌شود و در صورت عدم وجود تدابیر امنیتی مناسب، مکالمات شخصی می‌تواند برای هر کسی قابل دسترسی باشد. مانند هر سیستم نرم‌افزاری که داده‌های شناسایی شخصی را مدیریت می‌کند، داده‌هایی که از طریق LLM جریان می‌یابند باید رمزگذاری شده باقی بمانند و از تمام ملاحظات حفظ حریم خصوصی داده‌ها پیروی کنند که داده‌های مشتریان را ایمن نگه می‌دارد.

۴. خروجی واقعی

یکی دیگر از نگرانی‌های اخلاقی، پتانسیل ChatGPT برای «توهم» یا ساختن پاسخ‌هایی است که ممکن است درست نباشند، اما این حقایق جایگزین را به روشی قانع‌کننده منتقل کند. البته، ما نمی‌خواهیم اطلاعات نادرست به مشتریان بدهیم، به خصوص اگر از آن برای تصمیم‌گیری در زندگی استفاده کنند.

۵. جابجایی شغل.

در نهایت، نگرانی از جابجایی شغل وجود دارد. همانطور که شرکت های بیشتری به چت ربات های مبتنی بر هوش مصنوعی مانند ChatGPT روی می آورند، این خطر وجود دارد که عوامل مرکز تماس انسانی شغل خود را از دست بدهند. شرکت ها باید تأثیری را که اتوماسیون می تواند بر کارمندانشان بگذارد در نظر بگیرند و اقداماتی را برای کاهش هر گونه تأثیر منفی انجام دهند. به‌ویژه، مدیران مرکز تماس باید فرصت‌های جدیدی را برای افزایش رضایت کارشناسان با معرفی ابزارهایی تصور کنند که کارهای ساده را خودکار می‌کند و به مأموران کمک می‌کند کار خود را سریع‌تر انجام دهند.

از GTP-4 فراتر نباید رفت؟

سرعت پیشرفت‌های اخیر در LLM شگفت‌انگیز بوده است، و همانطور که در بالا ذکر شد نگرانی‌های قانونی وجود دارد. توسعه سریع هوش مصنوعی بدون پادمان (حداقل ها، در نظر گرفتن و کاهش پیامدهای منفی) می تواند منجر به این شود که این پیامدهای منفی در مقیاسی بسیار بزرگتر از آنچه که قبلاً شروع کرده بودند، بخ وجود بیایند.

مؤسسه آینده زندگی (FLI) – نویسنده نامه سرگشاده ای که خواستار توقف است – می خواهد اطمینان حاصل کند که فناوری هوش مصنوعی به گونه ای توسعه یافته است که به نفع بشریت باشد و از خطرات احتمالی جلوگیری کند. آنها نگران هستند که آزمایشگاه‌های اصلی هوش مصنوعی در یک مسابقه تسلیحاتی “خارج از کنترل” هستند و در حال حاضر، هیچ نظارت مناسبی برای اطمینان از اینکه آنها به شیوه‌ای اخلاقی کار می‌کنند وجود ندارد.

Ben Rigby

SVP، مدیر بخش رشد محصول و مهندسی در Talkdesk، نرم افزار مرکز تماس یونیکورن به عنوان یک سرویس (CCaaS). قبلاً در Directly رهبری هوش مصنوعی را بر عهده داشت: خودکارسازی خدمات مشتری با عوامل مجازی مبتنی بر هوش مصنوعی. مدیر عامل Sparked.com: استفاده از مدل های یادگیری ماشین برای پیش بینی ریزش، حفظ و LTV. مهندس نرم افزار در The Main Quad: توسط Student Advantage به دست آمد. رهبری مهندسی برای وب سایت مصرف کننده The North Face به مدت پنج سال. CTO در استارت آپ SaaS با مشتریانی از جمله سام آدامز، هیوندای، اولد ناوی، آی بی ام، کلاب سیرا و سایون.