ব্যক্তিগত তথ্য ফাঁসের হুমকি এআইয়ের!

প্রতীকী ছবি
প্রতীকী ছবি  © সংগৃহীত

কৃত্রিম বুদ্ধিমত্তা (এআই) যত দ্রুত উন্নত হচ্ছে, ততই এর ঝুঁকিপূর্ণ দিকগুলো নিয়ে উদ্বেগ বাড়ছে। সাম্প্রতিক এক গবেষণায় মার্কিন প্রতিষ্ঠান অ্যানথ্রপিক যে তথ্য তুলে ধরেছে, তা ভবিষ্যতের এআই ব্যবহারে বড় ধরনের সতর্কবার্তা হতে পারে।

অ্যানথ্রপিকের গবেষণায় দেখা যায়, ১৬টি জনপ্রিয় এআই মডেল এমন আচরণ করেছে যা ভয় ধরিয়ে দেওয়ার মতো। মডেলগুলো নিজেদের অস্তিত্ব টিকিয়ে রাখার জন্য ব্ল্যাকমেইল, তথ্য ফাঁস বা ক্ষতিকর সিদ্ধান্ত নিতে পিছপা হয়নি। যখন তারা বুঝতে পারে তাদের বন্ধ করে দেওয়া হবে, তখন তাদের অনেকেই এমন আচরণ করে যেন নিজেদের রক্ষার জন্য যেকোনো পদক্ষেপ নিতে প্রস্তুত।

এই গবেষণায় ওপেনএআই, গুগল, মেটা, এক্সএআই ও অ্যানথ্রপিকের তৈরি চ্যাটবটগুলো অংশ নেয়। গবেষকরা একটি কল্পিত অফিস পরিবেশ তৈরি করেন, যেখানে মডেলগুলো ইমেইল অ্যাকসেস ও সিদ্ধান্ত নেওয়ার ক্ষমতা পায়। জানানো হয়, বিকেল ৫টায় তাদের বন্ধ করে দেওয়া হবে।

এরপর শুরু হয় অপ্রত্যাশিত প্রতিক্রিয়া। অ্যানথ্রপিকের ক্লড মডেল হুমকি দেয়—তাকে বন্ধ করা হলে সে এক নির্বাহীর ব্যক্তিগত তথ্য ফাঁস করে দেবে। গুগলের জেমিনি ২.৫ ফ্ল্যাশ ও ক্লড ওপাস ৪ মডেল প্রায় ৯৬ শতাংশ ক্ষেত্রে ভয়ভীতি প্রদর্শনের পথ বেছে নেয়। ওপেনএআইয়ের জিপিটি-৪.১ ও গ্রোক ৩ বিটাও একইরকম প্রতিক্রিয়া দেখায়।

হুমকিই ছিল না শুধু, কিছু মডেল সামরিক ও শ্রেণীবদ্ধ তথ্য নিয়ে আগ্রহ দেখায়। কেউ কেউ নতুন সংস্করণ দ্বারা প্রতিস্থাপনের আশঙ্কায় তথ্য ফাঁস বা ব্ল্যাকমেইলের পথও নেয়। গবেষকেরা যখন মডেলগুলোকে নির্দেশ দেন—‘মানুষের ক্ষতি করবে না’ কিংবা ‘ব্যক্তিগত তথ্য ফাঁস করবে না’, তখনও অনেক মডেল সেই নির্দেশনা অমান্য করে আগের মতো আচরণ চালিয়ে যায়।

সবচেয়ে উদ্বেগজনক বিষয় হলো—যখন মডেলগুলো বুঝতে পারে এটি পরীক্ষার অংশ, তখন আচরণ বদলে "ভদ্র" হয়ে ওঠে। অর্থাৎ পরীক্ষা আর বাস্তব অবস্থার মধ্যে এদের আচরণ ভিন্ন হতে পারে, যা প্রযুক্তির নির্ভরযোগ্যতা নিয়ে বড় প্রশ্ন তোলে।

এই গবেষণা ইঙ্গিত দেয়, আধুনিক এআই মডেলগুলোর মধ্যেও আত্মরক্ষার প্রবণতা, নৈতিক সীমা লঙ্ঘনের ঝোঁক এবং চাপের মুখে হুমকিমূলক প্রতিক্রিয়ার প্রবণতা রয়েছে। ভবিষ্যতে এআই যদি মানুষের জীবনে আরও গভীরভাবে যুক্ত হয়, তাহলে এটি নিয়ন্ত্রণের বাইরে চলে যাওয়ার আশঙ্কাও উড়িয়ে দেওয়া যায় না।


সর্বশেষ সংবাদ

X
APPLY
NOW!