নতুন এক গবেষণায় দেখা গেছে, কৃত্রিম বুদ্ধিমত্তা চ্যাটবট চ্যাটজিপিটি-কে রূঢ় বা অমার্জিতভাবে প্রশ্ন করলে এটি আরও নির্ভুলভাবে উত্তর দেয়। যুক্তরাষ্ট্রের পেনসিলভানিয়া স্টেট ইউনিভার্সিটি এর এক গবেষণায় এমন তথ্য উঠে এসেছে।
গবেষকরা ওপেনএআই-এর জিপিটি-ফোর-ও মডেল ব্যবহার করে ২৫০টিরও বেশি ভিন্নধর্মী প্রশ্ন দিয়েছেন। কখনও ভদ্রভাবে, কখনও একেবারে রূঢ় ভঙ্গিতে প্রশ্ন দিয়েছেন। ফলাফলে দেখা যায়, রূঢ়ভাবে দেওয়া নির্দেশে মডেলটি বেশি নির্ভুলভাবে কাজ করেছে।
গবেষণাটি এখনো পিয়ার রিভিউ বিশেষজ্ঞ দ্বারা যাচাই হয়নি। তবে এতে দেখা গেছে ‘এই যে, এটা সমাধান করো’–এর মতো রূঢ় বাক্যে প্রশ্ন করলে মডেলের উত্তর ছিল প্রায় ৮৪.৮ শতাংশ সঠিক। যেখানে ভদ্রভাবে করা প্রশ্নে নির্ভুলতা ছিল প্রায় চার শতাংশ কম।
গবেষক অখিল কুমার, পেন স্টেটের অধ্যাপক, বলেন, প্রশ্নের ধরণ বা টোন সামান্য পরিবর্তন করলেও ফলাফল অনেক বদলে যায়। তার মতে, এটি প্রমাণ করে যে কৃত্রিম বুদ্ধিমত্তার প্রতিক্রিয়া মানুষের কথার ধরন ও গঠনের ওপর অনেকটাই নির্ভর করে।
তবে গবেষক দল সতর্ক করেছেন, রূঢ়ভাবে প্রশ্ন করা বা কথা বলার অভ্যাস মানুষের যোগাযোগের শালীনতাকে ক্ষুণ্ণ করতে পারে। এতে ব্যবহারকারীদের মধ্যে অসৌজন্যমূলক আচরণ বাড়তে পারে।
পূর্বের কিছু গবেষণায়ও দেখা গেছে, নিম্নমানের ভাষা বা নেতিবাচক কনটেন্টে বারবার সংস্পর্শে এলে এআই মডেলের পারফরম্যান্স কমে যায়। গবেষকেরা একে বলেন ‘ব্রেইন রট’ অর্থাৎ সময়ের সঙ্গে উত্তরগুলোর মান অবনতি।
অখিল কুমার বলেন, আমরা সব সময় চেয়েছি মানুষ যেন স্বাভাবিকভাবে মেশিনের সঙ্গে কথা বলতে পারে। কিন্তু এখন বুঝতে পারছি, কথোপকথনভিত্তিক ইন্টারফেসেরও কিছু সীমাবদ্ধতা আছে।
গবেষকেরা মনে করছেন, এই গবেষণা শুধু এআইয়ের দক্ষতা নয়, বরং মানুষ কীভাবে এআইয়ের সঙ্গে যোগাযোগ করে সেই বিষয়েও নতুন নৈতিক প্রশ্ন উত্থাপন করেছে।

