- ১৩ অক্টোবর, ২০২৫
স্টাফ রিপোর্টার | PNN:
ওপেনএআই সম্প্রতি একটি নতুন গবেষণাপত্র প্রকাশ করেছে, যেখানে তারা Large Language Model (LLM) যেমন জিপিটি-৫ এবং চ্যাটবটের হ্যালুসিনেশন বা ভুল তথ্য দেওয়ার সমস্যা নিয়ে আলোচনা করেছে।
গবেষকরা হ্যালুসিনেশনকে সংজ্ঞায়িত করেছেন “সুসংগত কিন্তু মিথ্যা তথ্য যা ভাষা মডেল তৈরি করে।” তারা উল্লেখ করেছেন, যদিও মডেলগুলো উন্নত হয়েছে, তবুও হ্যালুসিনেশন LLM-এর জন্য একটি মূল চ্যালেঞ্জ এবং এটি পুরোপুরি নির্মূল করা সম্ভব নয়।
উদাহরণস্বরূপ, গবেষকরা একটি চ্যাটবটকে আদাম তাউম্যান কালাই-এর পিএইচডি থিসিসের শিরোনাম জানতে চাইলে তিনটি ভিন্ন এবং সবগুলোই ভুল উত্তর পাওয়া যায়। এছাড়া জন্মদিন জানতে চাওয়াতেও একই ফলাফল আসে।
গবেষকরা বলছেন, হ্যালুসিনেশন অনেকাংশে প্রি-ট্রেনিং প্রক্রিয়ার কারণে হয়, যেখানে মডেল কেবল পরবর্তী শব্দ ঠিকভাবে অনুমান করার ওপর প্রশিক্ষিত হয়, তথ্যের সত্য-মিথ্যা যাচাই ছাড়া। উচ্চ-ফ্রিকোয়েন্সির ভাষাগত প্যাটার্ন যেমন বানান ও বন্ধনী মডেল সহজেই শিখতে পারে, কিন্তু কম পরিচিত তথ্য, যেমন একটি পোষা প্রাণীর জন্মদিন, কেবল প্যাটার্ন থেকে অনুমান করা যায় না।
সমাধান হিসেবে গবেষকরা প্রস্তাব করেছেন, মডেলের মূল্যায়ন ব্যবস্থায় পরিবর্তন আনা প্রয়োজন। তারা বলেছেন, বর্তমান “সঠিকতার ভিত্তিক মূল্যায়ন” মডেলকে অনুমান করতে উত্সাহিত করে, যা হ্যালুসিনেশন বাড়ায়। তারা পরামর্শ দিয়েছেন, ভুল অনুমানকে কঠোর শাস্তি এবং অনিশ্চয়তা প্রকাশকে ক্রেডিট দেওয়া উচিত।
গবেষকরা আরও বলেছেন, শুধুমাত্র “কিছু নতুন অনিশ্চয়তাভিত্তিক পরীক্ষা” চালানো যথেষ্ট নয়, বরং মূল সঠিকতা-ভিত্তিক মূল্যায়ন সিস্টেমকে আপডেট করা দরকার, যাতে মডেলগুলো ব্লাইন্ড অনুমান করতে উৎসাহ পায় না।
এই গবেষণা হাইলাইট করছে, হ্যালুসিনেশন কমানোর মূল চাবিকাঠি হলো মডেলকে সতর্ক অনুমান এবং অনিশ্চয়তা প্রকাশে প্রশিক্ষিত করা।