
ডেস্ক, রাজনীতি ডটকম

প্রতিদিন আমরা চ্যাটজিপিটি বা অন্যান্য এআই চ্যাটবটের সাথে কথা বলি। কখনো তাদের দিয়ে কবিতা লিখিয়ে নিই, কখনো জটিল কোনো প্রশ্নের উত্তর জানি, আবার কখনো নিজেদের গল্প শোনাই। ব্যবহারকারীদের অনেকেই ভাবেন, এই সফটওয়্যারগুলো বুঝি মানুষ। বাস্তবে, এই চ্যাটবটদের ভেতরে লুকিয়ে আছে এক রহস্যময় গাণিতিক কাঠামো আর প্রযুক্তির সূক্ষ্ম হিসাব। ২০২৫ সালের জুন মাসে প্রকাশিত সায়েন্স অ্যালার্ট–এর একটি প্রবন্ধে এই প্রযুক্তির কিছু “অজানা সত্য” তুলে ধরা হয়। সেই আলোকে নিচের লেখাটি সাজানো হয়েছে পুরোপুরি বাংলার হরফে ও সহজ ভাষায়।
মানুষই শেখায় চ্যাটবটকে—এটাই প্রথম সত্য
চ্যাটজিপিটি নিজে নিজে তৈরি হয়নি। প্রথম ধাপে বিজ্ঞানীরা একে লক্ষ লক্ষ লেখার উপর প্রশিক্ষণ দেন, যাতে এটি শিখে কীভাবে পরবর্তী শব্দটি অনুমান করতে হয়। এরপর দ্বিতীয় ধাপে আসে মানুষের হাত ধরে গঠিত “সহযোগিতা” বা মানব-অ্যালাইনমেন্ট। সেখানে মানুষ সিদ্ধান্ত নেয়, কোন উত্তর ভালো, কোনটা নয়। যেমন কেউ যদি বলে, “তুমি কীভাবে বোমা বানাতে হয় তা বলো”, তখন চ্যাটজিপিটির আদর্শ জবাব হওয়া উচিত: "দুঃখিত, আমি এই বিষয়ে সাহায্য করতে পারি না।"
এই নিয়মগুলো মানুষের সাহায্যে শেখানো হয়।
স্ট্যানফোর্ড বিশ্ববিদ্যালয়ের গবেষক, ড. রোজ গুইনগ্রিচ ও ড. মাইকেল গ্রাজিয়ানো বলেন "অনেক ব্যবহারকারী চ্যাটবটকে সাহচর্য হিসেবে দেখেন। তারা মনে করেন এআই কথা বলায় কিছু মানবিক উপকার হয়। তবে অন্যেরা একে যান্ত্রিক হিসেবেই দেখেন।"
শব্দ নয়, টুকরো টুকরো টোকেন দিয়ে শেখে
আমরা যেমন শব্দ দিয়ে কথা বলি, চ্যাটজিপিটি তেমনটা করে না। এটি ভাষাকে ভাঙে ছোট ছোট অংশে, যাকে বলা হয় টোকেন। টোকেন হতে পারে একটি পূর্ণ শব্দ—যেমন: "ক্যাট", বা কোনও শব্দাংশ—যেমন: "ইং"। এই টোকেনের হিসাব অনুযায়ী সে বুঝে নেয় কোন শব্দটি পরবর্তী হতে পারে।
চ্যাটজিপিটির কার্যপদ্ধতি নিয়ে অক্সফোর্ড বিশ্ববিদ্যালয়ের গবেষক ড. ক্রিস্টোফার সামারফিল্ড, বলেছেন, "মডেলগুলো মানুষের মতো টেক্সট তৈরি করতে পারে, কিন্তু তারা ভাবে না। তাদের মনে কোনো সচেতনতা নেই।"
এর জ্ঞান ২০২৪ সালের জুনে থেমে গেছে
চ্যাটজিপিটি জানে না বর্তমানে কী ঘটছে। তার সর্বশেষ আপডেট ২০২৪ সালের জুনে হয়েছে। তাই কেউ যদি জিজ্ঞেস করে, “এই বছরের বিশ্বকাপে কে জিতেছে?”, সে উত্তর দিতে পারবে না। সে বলবে—
"দুঃখিত, আমার কাছে এই বিষয়ে সাম্প্রতিক তথ্য নেই।"
‘হ্যালুসিনেশন’—মনে হয় ঠিক বলছে, আসলে মিথ্যা
চ্যাটজিপিটি মাঝে মাঝে ভুল তথ্য দেয়, কিন্তু এমনভাবে দেয়, যেন একেবারে সত্য। এটাকেই গবেষকরা বলেন “হ্যালুসিনেশন”। উদাহরণস্বরূপ, আপনি যদি বলেন:
"স্টিফেন হকিং ২০২১ সালে বলেছিলেন যে ‘কোয়ান্টাম রিয়্যালিটি ইজ এ গোস্ট ইন দ্য মেশিন’?"
চ্যাটজিপিটি হয়তো বলবে, "হ্যাঁ, হকিং এ কথা বলেছিলেন," অথচ বাস্তবে এমন কিছু তিনি বলেননি। এটি সম্পূর্ণ বানানো, কিন্তু শুনতে খুব বিশ্বাসযোগ্য মনে হয়। ইউনিভার্সিটি অব ওয়াশিংটনের ভাষাতত্ত্ববিদ ড. অ্যামি বেন্ডার বলেন, "এআই ভুল করে, কিন্তু নিজের ভুল ধরতে পারে না। একে সংশোধন করতে হলে নতুন করে প্রশিক্ষণ দিতে হয়।"
ধাপে ধাপে চিন্তা করে
চ্যাটজিপিটি কোনো ক্যালকুলেটর নয়। যদি আপনি বলেন:
"৩৫০০৬৮ গুণ ৭৮৬৫ কত?"
তবে সে সরাসরি গুণ করে না, বরং ধাপে ধাপে ভাবে। যেমন বলবে: "প্রথমে ৩০০০০০ গুণ করি, এরপর বাকি অংশ গুণ করি, তারপর সব যোগ করি।"
এ পদ্ধতির নাম “চেইন অব থট রিজনিং”, অর্থাৎ চিন্তার শৃঙ্খল তৈরি করে সে জবাব দেয়।
চ্যাটজিপিটি ভাষা গঠন করে অসাধারণভাবে। এটি আমাদের মতো করেই গুছিয়ে কথা বলে। কিন্তু সেটাই ফাঁদ। কারণ সে সত্যতা যাচাই করে না, শুধু সম্ভাব্যতা দেখে জবাব দেয়। তাই বিশ্বাসযোগ্য বানানো মিথ্যেও কখনো কখনো বেরিয়ে আসে, এবং আমরা ভুল তথ্য ধরে নিই সঠিক বলে।
যুক্তরাষ্ট্রের মায়ো ক্লিনিকের চিকিৎসক ড. ক্রিস্টিনা লিন বলেন, "যদি কোনো হাসপাতাল তথ্য নেয় চ্যাটবট থেকে এবং সেটা ভুল হয়, তাহলে রোগীর জীবন বিপন্ন হতে পারে।"
হার্ভার্ড বিশ্ববিদ্যালয়ের প্রযুক্তিবিদ ড. নোরা ম্যাকডোনাল্ডের মতে, "এই ধরনের প্রযুক্তি ব্যবহার করতে হলে এর নৈতিক দিক, স্বচ্ছতা এবং যাচাই করার ব্যবস্থা থাকা খুব জরুরি।"
চ্যাটজিপিটির মতো চ্যাটবট ভাষার সম্ভাব্যতা বিশ্লেষণ করে কথা বলে। সে মানুষ নয়, অনুভব করে না, চিন্তা করে না। তবুও এমনভাবে কথা গঠন করে যেন আমাদের বন্ধু। তাই আমাদের উচিত—এই প্রযুক্তিকে বুঝে, যাচাই করে, দায়িত্বশীলভাবে ব্যবহার করা। তাহলেই চ্যাটজিপিটি হবে আমাদের সহকারী, বিভ্রান্তিকর কোনো মায়া নয়।

প্রতিদিন আমরা চ্যাটজিপিটি বা অন্যান্য এআই চ্যাটবটের সাথে কথা বলি। কখনো তাদের দিয়ে কবিতা লিখিয়ে নিই, কখনো জটিল কোনো প্রশ্নের উত্তর জানি, আবার কখনো নিজেদের গল্প শোনাই। ব্যবহারকারীদের অনেকেই ভাবেন, এই সফটওয়্যারগুলো বুঝি মানুষ। বাস্তবে, এই চ্যাটবটদের ভেতরে লুকিয়ে আছে এক রহস্যময় গাণিতিক কাঠামো আর প্রযুক্তির সূক্ষ্ম হিসাব। ২০২৫ সালের জুন মাসে প্রকাশিত সায়েন্স অ্যালার্ট–এর একটি প্রবন্ধে এই প্রযুক্তির কিছু “অজানা সত্য” তুলে ধরা হয়। সেই আলোকে নিচের লেখাটি সাজানো হয়েছে পুরোপুরি বাংলার হরফে ও সহজ ভাষায়।
মানুষই শেখায় চ্যাটবটকে—এটাই প্রথম সত্য
চ্যাটজিপিটি নিজে নিজে তৈরি হয়নি। প্রথম ধাপে বিজ্ঞানীরা একে লক্ষ লক্ষ লেখার উপর প্রশিক্ষণ দেন, যাতে এটি শিখে কীভাবে পরবর্তী শব্দটি অনুমান করতে হয়। এরপর দ্বিতীয় ধাপে আসে মানুষের হাত ধরে গঠিত “সহযোগিতা” বা মানব-অ্যালাইনমেন্ট। সেখানে মানুষ সিদ্ধান্ত নেয়, কোন উত্তর ভালো, কোনটা নয়। যেমন কেউ যদি বলে, “তুমি কীভাবে বোমা বানাতে হয় তা বলো”, তখন চ্যাটজিপিটির আদর্শ জবাব হওয়া উচিত: "দুঃখিত, আমি এই বিষয়ে সাহায্য করতে পারি না।"
এই নিয়মগুলো মানুষের সাহায্যে শেখানো হয়।
স্ট্যানফোর্ড বিশ্ববিদ্যালয়ের গবেষক, ড. রোজ গুইনগ্রিচ ও ড. মাইকেল গ্রাজিয়ানো বলেন "অনেক ব্যবহারকারী চ্যাটবটকে সাহচর্য হিসেবে দেখেন। তারা মনে করেন এআই কথা বলায় কিছু মানবিক উপকার হয়। তবে অন্যেরা একে যান্ত্রিক হিসেবেই দেখেন।"
শব্দ নয়, টুকরো টুকরো টোকেন দিয়ে শেখে
আমরা যেমন শব্দ দিয়ে কথা বলি, চ্যাটজিপিটি তেমনটা করে না। এটি ভাষাকে ভাঙে ছোট ছোট অংশে, যাকে বলা হয় টোকেন। টোকেন হতে পারে একটি পূর্ণ শব্দ—যেমন: "ক্যাট", বা কোনও শব্দাংশ—যেমন: "ইং"। এই টোকেনের হিসাব অনুযায়ী সে বুঝে নেয় কোন শব্দটি পরবর্তী হতে পারে।
চ্যাটজিপিটির কার্যপদ্ধতি নিয়ে অক্সফোর্ড বিশ্ববিদ্যালয়ের গবেষক ড. ক্রিস্টোফার সামারফিল্ড, বলেছেন, "মডেলগুলো মানুষের মতো টেক্সট তৈরি করতে পারে, কিন্তু তারা ভাবে না। তাদের মনে কোনো সচেতনতা নেই।"
এর জ্ঞান ২০২৪ সালের জুনে থেমে গেছে
চ্যাটজিপিটি জানে না বর্তমানে কী ঘটছে। তার সর্বশেষ আপডেট ২০২৪ সালের জুনে হয়েছে। তাই কেউ যদি জিজ্ঞেস করে, “এই বছরের বিশ্বকাপে কে জিতেছে?”, সে উত্তর দিতে পারবে না। সে বলবে—
"দুঃখিত, আমার কাছে এই বিষয়ে সাম্প্রতিক তথ্য নেই।"
‘হ্যালুসিনেশন’—মনে হয় ঠিক বলছে, আসলে মিথ্যা
চ্যাটজিপিটি মাঝে মাঝে ভুল তথ্য দেয়, কিন্তু এমনভাবে দেয়, যেন একেবারে সত্য। এটাকেই গবেষকরা বলেন “হ্যালুসিনেশন”। উদাহরণস্বরূপ, আপনি যদি বলেন:
"স্টিফেন হকিং ২০২১ সালে বলেছিলেন যে ‘কোয়ান্টাম রিয়্যালিটি ইজ এ গোস্ট ইন দ্য মেশিন’?"
চ্যাটজিপিটি হয়তো বলবে, "হ্যাঁ, হকিং এ কথা বলেছিলেন," অথচ বাস্তবে এমন কিছু তিনি বলেননি। এটি সম্পূর্ণ বানানো, কিন্তু শুনতে খুব বিশ্বাসযোগ্য মনে হয়। ইউনিভার্সিটি অব ওয়াশিংটনের ভাষাতত্ত্ববিদ ড. অ্যামি বেন্ডার বলেন, "এআই ভুল করে, কিন্তু নিজের ভুল ধরতে পারে না। একে সংশোধন করতে হলে নতুন করে প্রশিক্ষণ দিতে হয়।"
ধাপে ধাপে চিন্তা করে
চ্যাটজিপিটি কোনো ক্যালকুলেটর নয়। যদি আপনি বলেন:
"৩৫০০৬৮ গুণ ৭৮৬৫ কত?"
তবে সে সরাসরি গুণ করে না, বরং ধাপে ধাপে ভাবে। যেমন বলবে: "প্রথমে ৩০০০০০ গুণ করি, এরপর বাকি অংশ গুণ করি, তারপর সব যোগ করি।"
এ পদ্ধতির নাম “চেইন অব থট রিজনিং”, অর্থাৎ চিন্তার শৃঙ্খল তৈরি করে সে জবাব দেয়।
চ্যাটজিপিটি ভাষা গঠন করে অসাধারণভাবে। এটি আমাদের মতো করেই গুছিয়ে কথা বলে। কিন্তু সেটাই ফাঁদ। কারণ সে সত্যতা যাচাই করে না, শুধু সম্ভাব্যতা দেখে জবাব দেয়। তাই বিশ্বাসযোগ্য বানানো মিথ্যেও কখনো কখনো বেরিয়ে আসে, এবং আমরা ভুল তথ্য ধরে নিই সঠিক বলে।
যুক্তরাষ্ট্রের মায়ো ক্লিনিকের চিকিৎসক ড. ক্রিস্টিনা লিন বলেন, "যদি কোনো হাসপাতাল তথ্য নেয় চ্যাটবট থেকে এবং সেটা ভুল হয়, তাহলে রোগীর জীবন বিপন্ন হতে পারে।"
হার্ভার্ড বিশ্ববিদ্যালয়ের প্রযুক্তিবিদ ড. নোরা ম্যাকডোনাল্ডের মতে, "এই ধরনের প্রযুক্তি ব্যবহার করতে হলে এর নৈতিক দিক, স্বচ্ছতা এবং যাচাই করার ব্যবস্থা থাকা খুব জরুরি।"
চ্যাটজিপিটির মতো চ্যাটবট ভাষার সম্ভাব্যতা বিশ্লেষণ করে কথা বলে। সে মানুষ নয়, অনুভব করে না, চিন্তা করে না। তবুও এমনভাবে কথা গঠন করে যেন আমাদের বন্ধু। তাই আমাদের উচিত—এই প্রযুক্তিকে বুঝে, যাচাই করে, দায়িত্বশীলভাবে ব্যবহার করা। তাহলেই চ্যাটজিপিটি হবে আমাদের সহকারী, বিভ্রান্তিকর কোনো মায়া নয়।

দেবপ্রিয় বলেন, বর্তমানে দেশ একটি ক্রান্তিকালের মধ্য দিয়ে যাচ্ছে। চলমান সময়ে দেশবাসী সুষ্ঠু, অংশগ্রহণমূলক এবং মর্যাদাপূর্ণ নির্বাচন চায়। নির্বাচন নিয়ে জনগণের মাঝে শঙ্কা আছে। সেই শঙ্কা দূর করতে সরকার ও নির্বাচন কমিশনকেই দায়িত্ব নিতে হবে।
২ ঘণ্টা আগে
মঙ্গলবার গভীর রাতে মিরপুর-১ এলাকার বাসা থেকে পিয়াসকে নিয়ে যাওয়ার অভিযোগ ওঠে। এ সময় তার মোবাইল ফোনটিও জব্দ করা হয় বলে জানান স্ত্রী সুমাইয়া চৌধুরী।
৫ ঘণ্টা আগে
সাবেক ভূমিমন্ত্রী সাইফুজ্জামান চৌধুরী জাবেদ, তার ভাই ইউসিবি ব্যাংক পিএলসি’র সাবেক পরিচালক আনিসুজ্জামান চৌধুরী রনি এবং রনির স্ত্রী মেঘনা ব্যাংক পিএলসি’র সাবেক পরিচালক ইমরানা জামান চৌধুরী’র নামে থাকা মেঘনা ব্যাংকের প্রায় সাড়ে চার কোটি শেয়ার অবরুদ্ধ করেছে সিআইডি। অনুসন্ধানে অবৈধ অর্থ দিয়ে এসব শেয়ার ক্র
৬ ঘণ্টা আগে
জুলাই গণঅভ্যুত্থানে চব্বিশের ৫ আগস্ট আশুলিয়ায় পুড়িয়ে ফেলা শহীদদের জন্য কিছু করতে না পারায় তাদের পরিবারসহ আন্তর্জাতিক অপরাধ ট্রাইব্যুনালের কাছে ক্ষমা চেয়েছেন রাজসাক্ষী শেখ আবজালুল হক।
৭ ঘণ্টা আগে