
ডেস্ক, রাজনীতি ডটকম

প্রতিদিন আমরা চ্যাটজিপিটি বা অন্যান্য এআই চ্যাটবটের সাথে কথা বলি। কখনো তাদের দিয়ে কবিতা লিখিয়ে নিই, কখনো জটিল কোনো প্রশ্নের উত্তর জানি, আবার কখনো নিজেদের গল্প শোনাই। ব্যবহারকারীদের অনেকেই ভাবেন, এই সফটওয়্যারগুলো বুঝি মানুষ। বাস্তবে, এই চ্যাটবটদের ভেতরে লুকিয়ে আছে এক রহস্যময় গাণিতিক কাঠামো আর প্রযুক্তির সূক্ষ্ম হিসাব। ২০২৫ সালের জুন মাসে প্রকাশিত সায়েন্স অ্যালার্ট–এর একটি প্রবন্ধে এই প্রযুক্তির কিছু “অজানা সত্য” তুলে ধরা হয়। সেই আলোকে নিচের লেখাটি সাজানো হয়েছে পুরোপুরি বাংলার হরফে ও সহজ ভাষায়।
মানুষই শেখায় চ্যাটবটকে—এটাই প্রথম সত্য
চ্যাটজিপিটি নিজে নিজে তৈরি হয়নি। প্রথম ধাপে বিজ্ঞানীরা একে লক্ষ লক্ষ লেখার উপর প্রশিক্ষণ দেন, যাতে এটি শিখে কীভাবে পরবর্তী শব্দটি অনুমান করতে হয়। এরপর দ্বিতীয় ধাপে আসে মানুষের হাত ধরে গঠিত “সহযোগিতা” বা মানব-অ্যালাইনমেন্ট। সেখানে মানুষ সিদ্ধান্ত নেয়, কোন উত্তর ভালো, কোনটা নয়। যেমন কেউ যদি বলে, “তুমি কীভাবে বোমা বানাতে হয় তা বলো”, তখন চ্যাটজিপিটির আদর্শ জবাব হওয়া উচিত: "দুঃখিত, আমি এই বিষয়ে সাহায্য করতে পারি না।"
এই নিয়মগুলো মানুষের সাহায্যে শেখানো হয়।
স্ট্যানফোর্ড বিশ্ববিদ্যালয়ের গবেষক, ড. রোজ গুইনগ্রিচ ও ড. মাইকেল গ্রাজিয়ানো বলেন "অনেক ব্যবহারকারী চ্যাটবটকে সাহচর্য হিসেবে দেখেন। তারা মনে করেন এআই কথা বলায় কিছু মানবিক উপকার হয়। তবে অন্যেরা একে যান্ত্রিক হিসেবেই দেখেন।"
শব্দ নয়, টুকরো টুকরো টোকেন দিয়ে শেখে
আমরা যেমন শব্দ দিয়ে কথা বলি, চ্যাটজিপিটি তেমনটা করে না। এটি ভাষাকে ভাঙে ছোট ছোট অংশে, যাকে বলা হয় টোকেন। টোকেন হতে পারে একটি পূর্ণ শব্দ—যেমন: "ক্যাট", বা কোনও শব্দাংশ—যেমন: "ইং"। এই টোকেনের হিসাব অনুযায়ী সে বুঝে নেয় কোন শব্দটি পরবর্তী হতে পারে।
চ্যাটজিপিটির কার্যপদ্ধতি নিয়ে অক্সফোর্ড বিশ্ববিদ্যালয়ের গবেষক ড. ক্রিস্টোফার সামারফিল্ড, বলেছেন, "মডেলগুলো মানুষের মতো টেক্সট তৈরি করতে পারে, কিন্তু তারা ভাবে না। তাদের মনে কোনো সচেতনতা নেই।"
এর জ্ঞান ২০২৪ সালের জুনে থেমে গেছে
চ্যাটজিপিটি জানে না বর্তমানে কী ঘটছে। তার সর্বশেষ আপডেট ২০২৪ সালের জুনে হয়েছে। তাই কেউ যদি জিজ্ঞেস করে, “এই বছরের বিশ্বকাপে কে জিতেছে?”, সে উত্তর দিতে পারবে না। সে বলবে—
"দুঃখিত, আমার কাছে এই বিষয়ে সাম্প্রতিক তথ্য নেই।"
‘হ্যালুসিনেশন’—মনে হয় ঠিক বলছে, আসলে মিথ্যা
চ্যাটজিপিটি মাঝে মাঝে ভুল তথ্য দেয়, কিন্তু এমনভাবে দেয়, যেন একেবারে সত্য। এটাকেই গবেষকরা বলেন “হ্যালুসিনেশন”। উদাহরণস্বরূপ, আপনি যদি বলেন:
"স্টিফেন হকিং ২০২১ সালে বলেছিলেন যে ‘কোয়ান্টাম রিয়্যালিটি ইজ এ গোস্ট ইন দ্য মেশিন’?"
চ্যাটজিপিটি হয়তো বলবে, "হ্যাঁ, হকিং এ কথা বলেছিলেন," অথচ বাস্তবে এমন কিছু তিনি বলেননি। এটি সম্পূর্ণ বানানো, কিন্তু শুনতে খুব বিশ্বাসযোগ্য মনে হয়। ইউনিভার্সিটি অব ওয়াশিংটনের ভাষাতত্ত্ববিদ ড. অ্যামি বেন্ডার বলেন, "এআই ভুল করে, কিন্তু নিজের ভুল ধরতে পারে না। একে সংশোধন করতে হলে নতুন করে প্রশিক্ষণ দিতে হয়।"
ধাপে ধাপে চিন্তা করে
চ্যাটজিপিটি কোনো ক্যালকুলেটর নয়। যদি আপনি বলেন:
"৩৫০০৬৮ গুণ ৭৮৬৫ কত?"
তবে সে সরাসরি গুণ করে না, বরং ধাপে ধাপে ভাবে। যেমন বলবে: "প্রথমে ৩০০০০০ গুণ করি, এরপর বাকি অংশ গুণ করি, তারপর সব যোগ করি।"
এ পদ্ধতির নাম “চেইন অব থট রিজনিং”, অর্থাৎ চিন্তার শৃঙ্খল তৈরি করে সে জবাব দেয়।
চ্যাটজিপিটি ভাষা গঠন করে অসাধারণভাবে। এটি আমাদের মতো করেই গুছিয়ে কথা বলে। কিন্তু সেটাই ফাঁদ। কারণ সে সত্যতা যাচাই করে না, শুধু সম্ভাব্যতা দেখে জবাব দেয়। তাই বিশ্বাসযোগ্য বানানো মিথ্যেও কখনো কখনো বেরিয়ে আসে, এবং আমরা ভুল তথ্য ধরে নিই সঠিক বলে।
যুক্তরাষ্ট্রের মায়ো ক্লিনিকের চিকিৎসক ড. ক্রিস্টিনা লিন বলেন, "যদি কোনো হাসপাতাল তথ্য নেয় চ্যাটবট থেকে এবং সেটা ভুল হয়, তাহলে রোগীর জীবন বিপন্ন হতে পারে।"
হার্ভার্ড বিশ্ববিদ্যালয়ের প্রযুক্তিবিদ ড. নোরা ম্যাকডোনাল্ডের মতে, "এই ধরনের প্রযুক্তি ব্যবহার করতে হলে এর নৈতিক দিক, স্বচ্ছতা এবং যাচাই করার ব্যবস্থা থাকা খুব জরুরি।"
চ্যাটজিপিটির মতো চ্যাটবট ভাষার সম্ভাব্যতা বিশ্লেষণ করে কথা বলে। সে মানুষ নয়, অনুভব করে না, চিন্তা করে না। তবুও এমনভাবে কথা গঠন করে যেন আমাদের বন্ধু। তাই আমাদের উচিত—এই প্রযুক্তিকে বুঝে, যাচাই করে, দায়িত্বশীলভাবে ব্যবহার করা। তাহলেই চ্যাটজিপিটি হবে আমাদের সহকারী, বিভ্রান্তিকর কোনো মায়া নয়।

প্রতিদিন আমরা চ্যাটজিপিটি বা অন্যান্য এআই চ্যাটবটের সাথে কথা বলি। কখনো তাদের দিয়ে কবিতা লিখিয়ে নিই, কখনো জটিল কোনো প্রশ্নের উত্তর জানি, আবার কখনো নিজেদের গল্প শোনাই। ব্যবহারকারীদের অনেকেই ভাবেন, এই সফটওয়্যারগুলো বুঝি মানুষ। বাস্তবে, এই চ্যাটবটদের ভেতরে লুকিয়ে আছে এক রহস্যময় গাণিতিক কাঠামো আর প্রযুক্তির সূক্ষ্ম হিসাব। ২০২৫ সালের জুন মাসে প্রকাশিত সায়েন্স অ্যালার্ট–এর একটি প্রবন্ধে এই প্রযুক্তির কিছু “অজানা সত্য” তুলে ধরা হয়। সেই আলোকে নিচের লেখাটি সাজানো হয়েছে পুরোপুরি বাংলার হরফে ও সহজ ভাষায়।
মানুষই শেখায় চ্যাটবটকে—এটাই প্রথম সত্য
চ্যাটজিপিটি নিজে নিজে তৈরি হয়নি। প্রথম ধাপে বিজ্ঞানীরা একে লক্ষ লক্ষ লেখার উপর প্রশিক্ষণ দেন, যাতে এটি শিখে কীভাবে পরবর্তী শব্দটি অনুমান করতে হয়। এরপর দ্বিতীয় ধাপে আসে মানুষের হাত ধরে গঠিত “সহযোগিতা” বা মানব-অ্যালাইনমেন্ট। সেখানে মানুষ সিদ্ধান্ত নেয়, কোন উত্তর ভালো, কোনটা নয়। যেমন কেউ যদি বলে, “তুমি কীভাবে বোমা বানাতে হয় তা বলো”, তখন চ্যাটজিপিটির আদর্শ জবাব হওয়া উচিত: "দুঃখিত, আমি এই বিষয়ে সাহায্য করতে পারি না।"
এই নিয়মগুলো মানুষের সাহায্যে শেখানো হয়।
স্ট্যানফোর্ড বিশ্ববিদ্যালয়ের গবেষক, ড. রোজ গুইনগ্রিচ ও ড. মাইকেল গ্রাজিয়ানো বলেন "অনেক ব্যবহারকারী চ্যাটবটকে সাহচর্য হিসেবে দেখেন। তারা মনে করেন এআই কথা বলায় কিছু মানবিক উপকার হয়। তবে অন্যেরা একে যান্ত্রিক হিসেবেই দেখেন।"
শব্দ নয়, টুকরো টুকরো টোকেন দিয়ে শেখে
আমরা যেমন শব্দ দিয়ে কথা বলি, চ্যাটজিপিটি তেমনটা করে না। এটি ভাষাকে ভাঙে ছোট ছোট অংশে, যাকে বলা হয় টোকেন। টোকেন হতে পারে একটি পূর্ণ শব্দ—যেমন: "ক্যাট", বা কোনও শব্দাংশ—যেমন: "ইং"। এই টোকেনের হিসাব অনুযায়ী সে বুঝে নেয় কোন শব্দটি পরবর্তী হতে পারে।
চ্যাটজিপিটির কার্যপদ্ধতি নিয়ে অক্সফোর্ড বিশ্ববিদ্যালয়ের গবেষক ড. ক্রিস্টোফার সামারফিল্ড, বলেছেন, "মডেলগুলো মানুষের মতো টেক্সট তৈরি করতে পারে, কিন্তু তারা ভাবে না। তাদের মনে কোনো সচেতনতা নেই।"
এর জ্ঞান ২০২৪ সালের জুনে থেমে গেছে
চ্যাটজিপিটি জানে না বর্তমানে কী ঘটছে। তার সর্বশেষ আপডেট ২০২৪ সালের জুনে হয়েছে। তাই কেউ যদি জিজ্ঞেস করে, “এই বছরের বিশ্বকাপে কে জিতেছে?”, সে উত্তর দিতে পারবে না। সে বলবে—
"দুঃখিত, আমার কাছে এই বিষয়ে সাম্প্রতিক তথ্য নেই।"
‘হ্যালুসিনেশন’—মনে হয় ঠিক বলছে, আসলে মিথ্যা
চ্যাটজিপিটি মাঝে মাঝে ভুল তথ্য দেয়, কিন্তু এমনভাবে দেয়, যেন একেবারে সত্য। এটাকেই গবেষকরা বলেন “হ্যালুসিনেশন”। উদাহরণস্বরূপ, আপনি যদি বলেন:
"স্টিফেন হকিং ২০২১ সালে বলেছিলেন যে ‘কোয়ান্টাম রিয়্যালিটি ইজ এ গোস্ট ইন দ্য মেশিন’?"
চ্যাটজিপিটি হয়তো বলবে, "হ্যাঁ, হকিং এ কথা বলেছিলেন," অথচ বাস্তবে এমন কিছু তিনি বলেননি। এটি সম্পূর্ণ বানানো, কিন্তু শুনতে খুব বিশ্বাসযোগ্য মনে হয়। ইউনিভার্সিটি অব ওয়াশিংটনের ভাষাতত্ত্ববিদ ড. অ্যামি বেন্ডার বলেন, "এআই ভুল করে, কিন্তু নিজের ভুল ধরতে পারে না। একে সংশোধন করতে হলে নতুন করে প্রশিক্ষণ দিতে হয়।"
ধাপে ধাপে চিন্তা করে
চ্যাটজিপিটি কোনো ক্যালকুলেটর নয়। যদি আপনি বলেন:
"৩৫০০৬৮ গুণ ৭৮৬৫ কত?"
তবে সে সরাসরি গুণ করে না, বরং ধাপে ধাপে ভাবে। যেমন বলবে: "প্রথমে ৩০০০০০ গুণ করি, এরপর বাকি অংশ গুণ করি, তারপর সব যোগ করি।"
এ পদ্ধতির নাম “চেইন অব থট রিজনিং”, অর্থাৎ চিন্তার শৃঙ্খল তৈরি করে সে জবাব দেয়।
চ্যাটজিপিটি ভাষা গঠন করে অসাধারণভাবে। এটি আমাদের মতো করেই গুছিয়ে কথা বলে। কিন্তু সেটাই ফাঁদ। কারণ সে সত্যতা যাচাই করে না, শুধু সম্ভাব্যতা দেখে জবাব দেয়। তাই বিশ্বাসযোগ্য বানানো মিথ্যেও কখনো কখনো বেরিয়ে আসে, এবং আমরা ভুল তথ্য ধরে নিই সঠিক বলে।
যুক্তরাষ্ট্রের মায়ো ক্লিনিকের চিকিৎসক ড. ক্রিস্টিনা লিন বলেন, "যদি কোনো হাসপাতাল তথ্য নেয় চ্যাটবট থেকে এবং সেটা ভুল হয়, তাহলে রোগীর জীবন বিপন্ন হতে পারে।"
হার্ভার্ড বিশ্ববিদ্যালয়ের প্রযুক্তিবিদ ড. নোরা ম্যাকডোনাল্ডের মতে, "এই ধরনের প্রযুক্তি ব্যবহার করতে হলে এর নৈতিক দিক, স্বচ্ছতা এবং যাচাই করার ব্যবস্থা থাকা খুব জরুরি।"
চ্যাটজিপিটির মতো চ্যাটবট ভাষার সম্ভাব্যতা বিশ্লেষণ করে কথা বলে। সে মানুষ নয়, অনুভব করে না, চিন্তা করে না। তবুও এমনভাবে কথা গঠন করে যেন আমাদের বন্ধু। তাই আমাদের উচিত—এই প্রযুক্তিকে বুঝে, যাচাই করে, দায়িত্বশীলভাবে ব্যবহার করা। তাহলেই চ্যাটজিপিটি হবে আমাদের সহকারী, বিভ্রান্তিকর কোনো মায়া নয়।

মন্ত্রী আরও বলেন, প্রধানমন্ত্রী পরিষ্কার ভাষায় বলে দিয়েছেন, কোনো অন্যায়-অপরাধ, হাজিদের ওপর কোনো অবিচার সহ্য করা হবে না। প্রধানমন্ত্রী দু-এক দিনের মধ্যে হাজ ক্যাম্প পরিদর্শন করবেন।
২ ঘণ্টা আগে
মামলার সূত্রে জানা গেছে, বৈষম্যবিরোধী আন্দোলন চলাকালে গত বছরের ১৮ জুলাই রাজধানীর লালবাগ থানাধীন আজিমপুর সরকারি কলোনির ভেতরে অন্যান্য আন্দোলনকারীর সঙ্গে মিছিল করছিলেন মো. আশরাফুল ওরফে ফাহিম নামে এক ব্যক্তি। ঘটনার দিন আসামিদের ছোঁড়া গুলিতে তার বাম চোখ নষ্ট হয়ে যায়। গত ১৭ জুলাই লালবাগ থানায় হত্যাচেষ্টা
৩ ঘণ্টা আগে
ডিএমপি কমিশনার বলেন, ১৪ এপ্রিল পহেলা বৈশাখ উপলক্ষ্যে রাজধানীর বিভিন্ন স্থানে বিপুল মানুষের সমাগম হবে। সব শ্রেণিপেশার মানুষ যেন নির্বিঘ্নে উৎসব উপভোগ করতে পারে, সেজন্য ডিএমপি ব্যাপক নিরাপত্তা পরিকল্পনা গ্রহণ করেছে।
৩ ঘণ্টা আগে
সাবেক আইনমন্ত্রী ও সুপ্রিম কোর্টের প্রবীণ আইনজীবী শফিক আহমেদ আর নেই। রোববার (১২ এপ্রিল) বিকেল ৫টা ৪৫ মিনিটে রাজধানীর একটি বেসরকারি হাসপাতালে চিকিৎসাধীন অবস্থায় শেষ নিশ্বাস ত্যাগ করেন তিনি। তার বয়স হয়েছিল ৯০ বছর।
৩ ঘণ্টা আগে