বিশ্বে আর্থিক বিপর্যয় ডেকে আনতে পারে এআই, নোয়া হারারির সতর্কবার্তা
কৃত্রিম বুদ্ধিমত্তা (এআই) প্রযুক্তি বিপর্যয়কর আর্থিক সংকট সৃষ্টি করতে পারে বলে সতর্ক করেছেন ইতিহাসবিদ ইউভাল নোয়া হারারি। স্যাপিয়েন্স নামে সুপরিচিত বইয়ের লেখক হারারি গার্ডিয়ানের এক প্রতিবেদনে এআই-সৃষ্ট সম্ভাব্য সমস্যা নিয়ে উদ্বেগ প্রকাশ করেন। তাঁর মতে, এআই-সৃষ্ট বিপদের ধরন নিয়ে পূর্বাভাস দেওয়া কঠিন।
পরমাণু অস্ত্রের উদাহরণ দিয়ে হারারি বলেন, পরমাণু অস্ত্রের ক্ষেত্রে শুধু একটি বিপদের আশঙ্কা করা যায়। কিন্তু এআইয়ের ক্ষেত্রে ব্যাপকসংখ্যক বিপদের আশঙ্কা থাকে। কোন কোন ক্ষেত্রে এআই বিপদ তৈরি করবে, তা আগে থেকে অনুমান করা সম্ভব নয়। এই ধরনের বিপদ মানবসভ্যতাকে হুমকিতে ফেলতে পারে।
মানব ইতিহাসে পূর্ববর্তী প্রযুক্তির থেকে আলাদা এআই। কারণ, এটিই প্রথম প্রযুক্তি, যা নিজেই সিদ্ধান্ত নিতে পারে, নতুন ধারণা তৈরি করে এবং নিজের বিকাশও করতে পারে। তাই নানা বিশ্লেষক, এমনকি এই প্রযুক্তি উদ্ভাবকদের জন্যও এআইভিত্তিক সম্ভাব্য বিপদ ও সমস্যার পূর্বাভাস দেওয়া অত্যন্ত কঠিন।
আরও পড়ুন: মেডিকেল ভর্তি পরীক্ষা জানুয়ারির শেষ সপ্তাহে আয়োজনের চিন্তা
হারারির মতে, আর্থিক সেক্টর কৃত্রিম বুদ্ধিমত্তার মডেলগুলোর জন্য আদর্শ ক্ষেত্র। কারণ, এ ক্ষেত্রে শুধু ডেটা নিয়ে কাজ করতে হয়। তবে এআইকে এই সেক্টরে আরও ক্ষমতা দেওয়া হলে বিপদের শঙ্কা বাড়বে। এআই এমন আর্থিক ডিভাইস তৈরি করতে পারে, যা মানুষের বোঝার ক্ষমতার বাইরে। যেমন ২০০৭ থেকে ২০০৮ সালের আর্থিক সংকট কীভাবে তৈরি হয়, তা খুব কম লোকই বুঝতে পেরেছিল।
আর্থিক ব্যবস্থা নিয়ন্ত্রণ ও কারসাজির বিষয়ে গত মাসে এআই মডেল নিয়ে উদ্বেগ প্রকাশ করে যুক্তরাজ্য সরকার। তবে হারারি বলেছেন, এআই সৃষ্ট আর্থিক সংকট ‘অন্তত সরাসরি’ মানবসভ্যতাকে ধ্বংস করবে না। এটি পরোক্ষভাবে নির্দিষ্ট ধরনের যুদ্ধ বা সংঘাতের সূত্রপাত করতে পারে। অর্থনৈতিক, সামাজিক, রাজনৈতিক বিপর্যয়কর ঝুঁকি তৈরি করতে পারে এই প্রযুক্তি।
স্যাপিয়েন্সের লেখক সব সময় এই প্রযুক্তির বিকাশ নিয়ে উদ্বেগ প্রকাশ করেছেন। হারারি বলেন, এআই মডেলের পরীক্ষা-নিরীক্ষার মাধ্যমে এই প্রযুক্তিসৃষ্ট সমস্যার পূর্বাভাস পাওয়া যাবে।