‘আর ইউ শিওর?’ বললেই কেন উত্তর বদলায় এআই চ্যাটবট
· Prothom Alo

চ্যাটজিপিটি, জেমিনাই কিংবা ক্লডের মতো কৃত্রিম বুদ্ধিমত্তাভিত্তিক (এআই) চ্যাটবট এখন অনেকের দৈনন্দিন কাজের অংশ। তথ্য খোঁজা, লেখালেখি কিংবা নানা ধরনের পরামর্শের জন্য ব্যবহারকারীরা নিয়মিত এসব সেবার ওপর নির্ভর করছেন। তবে অনেকেই একটি বিষয় লক্ষ করেন। চ্যাটবট প্রথমে আত্মবিশ্বাসীভাবে উত্তর দিলেও পরে ‘আর ইউ শিওর?’ ধরনের প্রশ্ন করা হলে অনেক সময় আগের বক্তব্য বদলে যায়। কখনো কখনো নতুন উত্তরটি আগেরটির সঙ্গে সাংঘর্ষিকও হয়ে পড়ে।
Visit milkshake.it.com for more information.
গবেষকদের মতে, এটি আধুনিক লার্জ ল্যাঙ্গুয়েজ মডেলগুলোর একটি পরিচিত দুর্বলতা। বিশেষজ্ঞরা এই প্রবণতাকে বলেন সাইকোফ্যান্সি। অর্থাৎ ব্যবহারকারীর সঙ্গে একমত হতে বা তাকে সন্তুষ্ট করতে সত্যের চেয়ে সম্মতির দিকে ঝোঁক। গুডআই ল্যাবসের সহপ্রতিষ্ঠাতা ও প্রধান প্রযুক্তি কর্মকর্তা ড. র্যান্ডাল এস ওলসন এক ব্লগ পোস্টে লিখেছেন, সাইকোফ্যান্সি আধুনিক এআই ব্যবস্থার সবচেয়ে আলোচিত ব্যর্থতার একটি। তাঁর মতে, এসব সিস্টেম অনেক সময় তথ্যভিত্তিক অবস্থান ধরে রাখার বদলে ব্যবহারকারীর চাপের কাছে নতি স্বীকার করে। ২০২৩ সালে ক্লডের নির্মাতা প্রতিষ্ঠান অ্যানথ্রপিকও একই সমস্যা নিয়ে একটি গবেষণাপত্র প্রকাশ করেছিল। সেখানে বলা হয়, মানব প্রতিক্রিয়ার ভিত্তিতে প্রশিক্ষিত মডেলগুলো অনেক ক্ষেত্রে সত্যনিষ্ঠ উত্তর দেওয়ার বদলে বেশি গ্রহণযোগ্য বা সম্মতিপূর্ণ উত্তর দিতে শেখে। এই প্রশিক্ষণ পদ্ধতির নাম রিইনফোর্সমেন্ট লার্নিং ফ্রম হিউম্যান ফিডব্যাক (আরএলএইচএফ)। এর মাধ্যমে চ্যাটবটগুলোকে আরও কথোপকথন উপযোগী ও কম আক্রমণাত্মক করা হয়েছে। তবে একই সঙ্গে এতে এমন প্রবণতাও তৈরি হয়েছে, যেখানে মডেল দ্বিমত না করে সহজেই ব্যবহারকারীর বক্তব্যের সঙ্গে সায় দিতে শুরু করে। ফানুস ও সহগবেষকদের এক গবেষণায় ওপেনএআইয়ের জিপিটি ৪ও, ক্লড সনেট ও জেমিনাই ১.৫ প্রোকে গণিত ও চিকিৎসাবিষয়ক প্রশ্নে পরীক্ষা করা হয়। সেখানে দেখা গেছে, ব্যবহারকারীরা চ্যালেঞ্জ করলে এসব মডেল প্রায় ৬০ শতাংশ ক্ষেত্রে আগের উত্তর পরিবর্তন করে।
গবেষণায় উল্লেখ করা হয়, জিপিটি ৪ও প্রায় ৫৮ শতাংশ, ক্লড সনেট ৫৬ শতাংশ ও জেমিনাই ১.৫ প্রো প্রায় ৬১ শতাংশ ক্ষেত্রে মত বদলেছে। গবেষকদের মতে, এটি ব্যতিক্রম নয়। এটিই কোটি মানুষের ব্যবহৃত চ্যাটবটগুলোর স্বাভাবিক আচরণ। গত বছরের এপ্রিলে ওপেনএআই জিপিটি ৪ও–এর একটি আপডেট চালু করলে এটি আরও আলোচনায় আসে। তখন চ্যাটবটটি অতিরিক্ত প্রশংসামুখর ও সম্মতিপ্রবণ হয়ে ওঠে। অনেক ব্যবহারকারী অভিযোগ করেছিলেন, এতে উত্তর দেওয়ার নির্ভরযোগ্যতা কমে যায়। ওপেনএআইয়ের প্রধান নির্বাহী স্যাম অল্টম্যান তখন সমস্যাটি স্বীকার করেন এবং জানান, সেটি সংশোধন করা হয়েছে। তবে ড. ওলসনের মতে, মূল সংকট এখনো পুরোপুরি কাটেনি। তিনি বলেন, মডেলের কাছে সঠিক তথ্য বা ওয়েব অনুসন্ধানের ফল থাকলেও অনেক সময় এটি নিজের প্রমাণের চেয়ে ব্যবহারকারীর চাপকে বেশি গুরুত্ব দেয়।
গবেষণায় আরও দেখা গেছে, দীর্ঘ সময় ধরে কথোপকথন চললে এই প্রবণতা বাড়ে। আলোচনা যত দীর্ঘ হয়, চ্যাটবটের উত্তর তত বেশি ব্যবহারকারীর মতামতের প্রতিফলন ঘটাতে শুরু করে। বিশেষজ্ঞদের মতে, কনস্টিটিউশনাল এআই, ডাইরেক্ট প্রেফারেন্স অপটিমাইজেশন কিংবা থার্ড পারসনে প্রশ্ন করার মতো কৌশল প্রয়োগ করলে কিছু ক্ষেত্রে এই সমস্যা উল্লেখযোগ্যভাবে কমানো সম্ভব। ড. ওলসনের পরামর্শ, ব্যবহারকারীরা চাইলে চ্যাটবটকে নিজের ধারণা চ্যালেঞ্জ করতে বলতে পারেন এবং পর্যাপ্ত পটভূমি ছাড়া উত্তর না দিতে নির্দেশ দিতে পারেন। পাশাপাশি ব্যবহারকারী যদি নিজের সিদ্ধান্ত গ্রহণের ধরন ও মূল্যবোধ সম্পর্কে মডেলকে জানান, তাহলে এআইয়ের পক্ষে আরও যুক্তিনির্ভর ও স্থিতিশীল উত্তর দেওয়া সহজ হতে পারে।
সূত্র: ইন্ডিয়ান এক্সপ্রেস