চিঠিতে যুক্তি দেওয়া হয়, বিভিন্ন কোম্পানি এখন শক্তিশালী এআই প্রযুক্তি বিকাশ করছে, যার মধ্যে রয়েছে ‘আর্টিফিশিয়াল জেনারেল ইন্টেলিজেন্স (এজিআই)’ও।
সম্প্রতি সিলিকন ভ্যালির শীর্ষস্থানীয় বিভিন্ন কোম্পানির এআই বিকাশে কাজ করা বর্তমান ও সাবেক একদল কর্মী এক খোলা চিঠিতে সতর্ক করে বলেছেন, বাড়তি সুরক্ষা ব্যবস্থা ছাড়া এআই ‘মানুষের অস্তিত্বের জন্য হুমকি’ হতে পারে।
এই চিঠিতে স্বাক্ষর করেছেন মূলত চ্যাটজিপিটি’র নির্মাতা ওপেনএআই, এআই স্টার্টআপ অ্যানথ্রপিক ও গুগলের এআই বিভাগ ডিপমাইন্ডের ১৩ জন সাবেক কর্মী। চিঠি লেখকদের যুক্তি হচ্ছে, বিভিন্ন নতুন অগ্রগতি নিয়ে সমালোচনা করার ক্ষেত্রে শীর্ষ এআই গবেষকদের আরও সুরক্ষা ব্যবস্থা থাকা প্রয়োজন।
এআই উদ্ভাবনের দিকনির্দেশনা সম্পর্কে জনগণ ও নীতিনির্ধারকদের মতামত নেওয়ার কথাও উল্লেখ রয়েছে চিঠিতে।
“আমরা বিশ্বাস করি, এআই প্রযুক্তির অপার সম্ভাবনা আছে, যা মানবতার জন্য বিভিন্ন অভিনব সুবিধা বয়ে আনতে পারবে,” মঙ্গলবার প্রকাশিত চিঠিতে লেখেন কর্মীরা।
“এইসব প্রযুক্তির সম্ভাব্য ঝুঁকি সম্পর্কেও আমরা ওয়াকিবহাল। এর মধ্যে রয়েছে প্রচলিত বিভিন্ন অসমতা, প্রতারণা, ভুল তথ্যের মাত্রা আরও বেড়ে যাওয়া থেকে শুরু করে বিভিন্ন স্বয়ংক্রিয় এআই সিস্টেমের নিয়ন্ত্রণ হারিয়ে ফেলা, যার ফলে মানব বিলুপ্তি ঘটতে পারে।”
চিঠিতে যুক্তি দেওয়া হয়, বিভিন্ন কোম্পানি এখন শক্তিশালী এআই প্রযুক্তি বিকাশ করছে, যার মধ্যে রয়েছে ‘আর্টিফিশিয়াল জেনারেল ইন্টেলিজেন্স (এজিআই)’ও। এটি একটি তাত্ত্বিক এআই ব্যবস্থা, যেখানে কৃত্রিম বুদ্ধিমত্তা মানুষের বুদ্ধিমত্তার সমান বা তার চেয়েও স্মার্ট হয়ে ওঠার সক্ষমতা অর্জন করবে। আর এই বিষয়ে কোম্পানির নিজস্ব কর্মী ও মোটা দাগে জনসাধারণের ‘কার্যকর তদারকি এড়াতে বড় অঙ্কের আর্থিক প্রণোদনা দেওয়া হয়’ বলে প্রতিবেদনে লিখেছে ব্রিটিশ দৈনিক ইন্ডিপেনডেন্ট।
এ চিঠির স্বাক্ষরদাতাদের মধ্যে ডিপমাইন্ডের এআই গবেষক নীল নন্দাই একমাত্র ব্যক্তি, যার এখনও কোম্পানির সঙ্গে সম্পৃক্ততা আছে।
“আমি আমার সাবেক ও বর্তমান কর্মীদের কোনও কিছু নিয়ে সতর্ক করতে বা তথ্য প্রকাশকারীদের প্রতি তাদের মনোভাব নিয়ে নির্দিষ্টভাবে সমালোচনা করতে চেয়েছি, বিষয়টি এমন নয়,” সামাজিক যোগাযোগ মাধ্যম এক্স-এ লেখেন তিনি।
“তবে আমি বিশ্বাস করি, এজিআই বিকাশের পরিণতি খুবই বাজে হতে পারে, যেখানে সকল ল্যাবও স্বীকার করে নিয়েছে, এটি অস্তিত্বের হুমকি তৈরি করতে পারে। তাই এজিআই বানাতে চাওয়া যে কোনো ল্যাবকে অবশ্যই আগে জনগণের কাছে আস্থা অর্জন করতে হবে। এক্ষেত্রে প্রথম মূল পদক্ষেপ হতে পারে, কর্মীদের তথ্য প্রকাশের কার্যকর ও সুরক্ষিত অধিকার থাকা।”
চিঠিতে বিভিন্ন কোম্পানিকে আহ্বান জানানো হয়, তাদের যেসব সাবেক ও বর্তমান কর্মী এআইয়ের ঝুঁকি নিয়ে প্রকাশ্যে কথা বলছেন, কোম্পানিগুলো যেন তাদেরকে শাস্তি দেওয়া বা বাকরুদ্ধ করা থেকে বিরত থাকে। এর সম্ভাব্য যোগসূত্র আছে এ মাসে ওপেনএআইয়ের এক স্ক্যান্ডালের ঘটনার সঙ্গে, যেখানে কোম্পানি ছাড়তে চাওয়া কর্মীদেরকে দুটি শর্তের মধ্যে একটি বেছে নেওয়ার আহ্বান জানানো হয়। শর্তগুলো হল, কোম্পানিতে নিজের ন্যায্য পাওনা ছেড়ে দেওয়া বা কোম্পানির সঙ্গে এমন এক চুক্তিপত্রে স্বাক্ষর করা, যার মেয়াদ কখনওই শেষ হবে না।
পরে এমন শর্ত থেকে সরে এসে ওপেনএআই বলেছে, “এতে আমাদের মূল্যবোধ বা আমরা যেমন কোম্পানি হতে চাই, তা প্রতিফলিত হয় না।”
ওপেনএআই-এর একজন মুখপাত্র ইন্ডিপেনডেন্টকে বলেছেন, “আমরা আমাদের ট্র্যাক রেকর্ডে সবচেয়ে সক্ষম ও নিরাপদ এআই সিস্টেম দিতে পারায় গর্বিত। আর এর সম্ভাব্য ঝুঁকি মোকাবেলায় আমরা নিজেদের বিজ্ঞানভিত্তিক পদ্ধতিতেও বিশ্বাস করি।”
“আমরা একমত যে, এ প্রযুক্তির গুরুত্বের বিষয়টি বিবেচনায় নিলে বিষয়টি নিয়ে কঠোরভাবে বিতর্ক করা অত্যন্ত গুরুত্বপূর্ণ। এজন্য আমরা গোটা বিশ্বের বিভিন্ন সরকার, সুশীল সমাজ ও অন্যান্য সম্প্রদায়ের সঙ্গে কাজ করে যাব।”
বিভিন্ন শীর্ষ এআই কোম্পানির কার্যক্রম নিয়ে বেশ কিছু বিতর্কের পর এ খোলা চিঠি এল। বিশেষ করে, একই সময়ে ওপেনএআই যখন এআই অ্যাসিস্ট্যান্টের পাশাপাশি মানুষের সরাসরি কথোপকথন করে এমন ‘ভয়েস-টু-ভয়েস’ ফিচার এবং ভিডিও ফিড বা লিখিত গাণিতিক সমস্যার মতো চাক্ষুষ তথ্যের প্রতিক্রিয়া জানায়, এমন বিভিন্ন নতুন সক্ষমতা উন্মোচন করছে।
সম্প্রতি ওপেনএআইয়ের একটি পণ্যে নিজের কণ্ঠস্বর নকল করার অভিযোগ তুলে স্কারলেট জোহানসন দাবি করেছেন, তিনি কোম্পানির প্রস্তাব স্পষ্টভাবে নাকচ করার পরও তারা এমন করেছে। তবে, এর আগে ‘হার’ সিনেমায় এআই অ্যাসিস্ট্যান্ট হিসেবে নিজের কণ্ঠস্বর দিয়েছিলেন মার্কিন এ অভিনেত্রী।
এদিকে, ভয়েস অ্যাসিস্ট্যান্ট ফিচার উন্মোচনের সময় ওপেনএআই সিইও স্যাম অল্টম্যান সামাজিক যোগাযোগ মাধ্যমে দেওয়া পোস্টে ‘হার’ শব্দটি ব্যবহার করলেও এর পর থেকেই ফিচারটিতে জোহানসনের কণ্ঠকে মডেল হিসেবে ব্যবহার করার বিষয়টি অস্বীকার করে আসছে কোম্পানিটি।