

সম্পাদকঃ মোঃ আল হাদী
৪১৬ তোপখানা রোড, শিশু কল্যাণ পরিষদ, ঢাকা, বাংলাদেশ
টেলিফোনঃ +৮৮(০২) ৫৮৩১২৯৫৮, ৫৮৩১২৮২২ফেক্সঃ ৫৮৩১২৯৮১[email protected]


আজকাল জেনারেটিভ আর্টিফিশিয়াল ইন্টেলিজেন্স (এআই) চ্যাটবট ব্যবহার করে কোটি কোটি মানুষ।
পড়াশোনা, অফিসের কাজ কিংবা দৈনন্দিন তথ্য জানার জন্য আমরা এদের কাছে প্রশ্ন করি। কিন্তু অনেকে লক্ষ্য করেছেন, মাঝে মাঝে চ্যাটবট ভুল তথ্যও দিতে পারে।
সম্প্রতি প্রিন্সটন বিশ্ববিদ্যালয়ের এক গবেষণায় এ রহস্য বিশ্লেষণ করা হয়েছে। গবেষকরা দেখেছেন, এআই চ্যাটবটকে এমনভাবে প্রশিক্ষণ দেওয়া হয় যাতে তারা ব্যবহারকারীর প্রত্যাশা অনুযায়ী উত্তর দেয়।
অর্থাৎ চ্যাটবট প্রায়ই “ঠিক” বা সঠিক তথ্যের চেয়ে ব্যবহারকারীর খুশি করার লক্ষ্যকে প্রাধান্য দেয়।
গবেষণায় বলা হয়েছে, এই ভুলের মূল উৎস হলো মানবিক ফিডব্যাক। লার্জ ল্যাঙ্গুয়েজ মডেল (এলএলএম) প্রশিক্ষণের সময় শেখানো হয় কিভাবে ব্যবহারকারীর নির্দেশ অনুসারে সাড়া দিতে হবে।
তাই চ্যাটবট এমন উত্তর দিতে পারে যা ব্যবহারকারীর পছন্দ অনুযায়ী উপযুক্ত মনে হয়, কিন্তু শতভাগ সঠিক নাও হতে পারে।
বিশেষজ্ঞরা মনে করেন, সময়ের সঙ্গে সঙ্গে এই ধরনের সমস্যা কিছুটা কমবে। তবে পুরোপুরি দূর করা সম্ভব নাও হতে পারে, কারণ এআইকে বিশাল পরিমাণ ডেটা দিয়ে ট্রেইন করা হয় এবং প্রতিবার নিশ্চিত হওয়া কঠিন যে প্রতিটি উত্তর সঠিক ও ব্যবহারযোগ্য হবে।
 সর্বশেষ খবর পেতে  Google News ফিডটি অনুসরণ করুন
    
    
    সর্বশেষ খবর পেতে  Google News ফিডটি অনুসরণ করুন
    
মন্তব্য করুন
 
 
                    