Tuesday, October 14, 2025

ওপেনএআই-এর গবেষণা: কেন জিপিটি-৫ ও চ্যাটবট এখনও ভুল তথ্য দেয়


প্রতীকী ছবিঃ চ্যাটজিপিটি- ৫ (সংগৃহীত)

স্টাফ রিপোর্টার | PNN:

ওপেনএআই সম্প্রতি একটি নতুন গবেষণাপত্র প্রকাশ করেছে, যেখানে তারা Large Language Model (LLM) যেমন জিপিটি-৫ এবং চ্যাটবটের হ্যালুসিনেশন বা ভুল তথ্য দেওয়ার সমস্যা নিয়ে আলোচনা করেছে।

গবেষকরা হ্যালুসিনেশনকে সংজ্ঞায়িত করেছেন “সুসংগত কিন্তু মিথ্যা তথ্য যা ভাষা মডেল তৈরি করে।” তারা উল্লেখ করেছেন, যদিও মডেলগুলো উন্নত হয়েছে, তবুও হ্যালুসিনেশন LLM-এর জন্য একটি মূল চ্যালেঞ্জ এবং এটি পুরোপুরি নির্মূল করা সম্ভব নয়।

উদাহরণস্বরূপ, গবেষকরা একটি চ্যাটবটকে আদাম তাউম্যান কালাই-এর পিএইচডি থিসিসের শিরোনাম জানতে চাইলে তিনটি ভিন্ন এবং সবগুলোই ভুল উত্তর পাওয়া যায়। এছাড়া জন্মদিন জানতে চাওয়াতেও একই ফলাফল আসে।

গবেষকরা বলছেন, হ্যালুসিনেশন অনেকাংশে প্রি-ট্রেনিং প্রক্রিয়ার কারণে হয়, যেখানে মডেল কেবল পরবর্তী শব্দ ঠিকভাবে অনুমান করার ওপর প্রশিক্ষিত হয়, তথ্যের সত্য-মিথ্যা যাচাই ছাড়া। উচ্চ-ফ্রিকোয়েন্সির ভাষাগত প্যাটার্ন যেমন বানান ও বন্ধনী মডেল সহজেই শিখতে পারে, কিন্তু কম পরিচিত তথ্য, যেমন একটি পোষা প্রাণীর জন্মদিন, কেবল প্যাটার্ন থেকে অনুমান করা যায় না।

সমাধান হিসেবে গবেষকরা প্রস্তাব করেছেন, মডেলের মূল্যায়ন ব্যবস্থায় পরিবর্তন আনা প্রয়োজন। তারা বলেছেন, বর্তমান “সঠিকতার ভিত্তিক মূল্যায়ন” মডেলকে অনুমান করতে উত্সাহিত করে, যা হ্যালুসিনেশন বাড়ায়। তারা পরামর্শ দিয়েছেন, ভুল অনুমানকে কঠোর শাস্তি এবং অনিশ্চয়তা প্রকাশকে ক্রেডিট দেওয়া উচিত।

গবেষকরা আরও বলেছেন, শুধুমাত্র “কিছু নতুন অনিশ্চয়তাভিত্তিক পরীক্ষা” চালানো যথেষ্ট নয়, বরং মূল সঠিকতা-ভিত্তিক মূল্যায়ন সিস্টেমকে আপডেট করা দরকার, যাতে মডেলগুলো ব্লাইন্ড অনুমান করতে উৎসাহ পায় না।

এই গবেষণা হাইলাইট করছে, হ্যালুসিনেশন কমানোর মূল চাবিকাঠি হলো মডেলকে সতর্ক অনুমান এবং অনিশ্চয়তা প্রকাশে প্রশিক্ষিত করা।

Super Admin

PNN

প্লিজ লগইন পোস্টে মন্তব্য করুন!

আপনিও পছন্দ করতে পারেন