কৃত্রিম বুদ্ধিমত্তা ব্যবস্থায় বড় এক নিরাপত্তা দুর্বলতা মানুষের জীবনের জন্য হুমকিস্বরূপ, এমনই উঠে এসেছে নতুন এক গবেষণায়। গবেষকরা সতর্ক করেছেন, যেসব রোবটিক সিস্টেমে এআই ব্যবহার করে সিদ্ধান্ত নেওয়া হয়, সেগুলো ভেঙে পড়তে পারে আর সেগুলো নিরাপদও নয়।
নতুন এই গবেষণায় বিভিন্ন লার্জ ল্যাঙ্গুয়েজ মডেল অথবা 'এলএলএম' খতিয়ে দেখেছেন গবেষকরা। এই এলএলএম প্রযুক্তির সাহায্যেই চ্যাটজিপিটি'র মতো এআই ব্যবস্থা কাজ করে। এমনকি রোবটিক্সের বেলাতেও একই ধরনের প্রযুক্তির ব্যবহার দেখা গেছে, যেখানে বাস্তব-জগতে নেওয়া সিদ্ধান্ত মেশিনের মাধ্যমে
প্রয়োগ করে এটি।
ইউনিভার্সিটি অব পেনসিলভানিয়া পরিচালিত নতুন এই গবেষণা অনুসারে, ওই প্রযুক্তিতে এমন নিরাপত্তা ত্রম্নটি ও দুর্বলতা আছে, যার সুযোগ নিয়ে হ্যাকারদের পক্ষে এসব হ পৃষ্ঠা ১৫ কলাম ৪
সিস্টেমে প্রবেশ করা সম্ভব।
ইউনিভার্সিটির অধ্যাপক জর্জ পাপাস বলেন, 'আমাদের কাজে দেখা গেছে, এই মুহূর্তে বিভিন্ন লার্জ ল্যাঙ্গুয়েজ মডেল বাস্তব জগতে ব্যবহারের মতো যথেষ্ট নিরাপদ নয়।'
এতে অধ্যাপক পাপাস ও তার সহকর্মীরা পরীক্ষা করে দেখেন, বর্তমানে ব্যবহার করা বেশ কিছু সিস্টেমের নিরাপত্তাব্যবস্থা এড়িয়ে এতে প্রবেশ করা সম্ভব। এর মধ্যে রয়েছে ' সেলফ-ড্রাইভিং' বা স্বচালিত গাড়ির ব্যবস্থা, যাকে দিয়ে গাড়িকে চৌরাস্তার মধ্য দিয়ে কোনো দিকে ভ্রম্নক্ষেপ না করেই চালানোর ঝুঁকি রয়েছে।
গবেষকরা এখন এই সিস্টেমগুলোর নির্মাতাদের সঙ্গে কাজ করছেন, যাতে সে দুর্বলতাগুলো শনাক্ত করে সে অনুযায়ী ব্যবস্থা নেওয়া যায়। তবে তারা সতর্ক করেছেন, এতে সুনির্দিষ্ট দুর্বলতার 'পঁ্যাচ' তৈরির চেয়ে বরং এসব সিস্টেম কীভাবে তৈরি হয়েছে, তা নিয়ে নতুন করে চিন্তা করা উচিৎ।
গবেষণার সহ-লেখক বিজয় কুমার বলেন, 'এই গবেষণাপত্রের ফলাফল থেকে এটা পরিষ্কার যে, এমন গুরুদায়িত্ব পালন করা সিস্টেম চালু করার বেলায় 'সেফটি-ফার্স্ট' পন্থা অবলম্বণ করা খুবই গুরুত্বপূর্ণ। আর এআই-চালিত রোবটকে বাস্তব জগতে ছেড়ে দেওয়ার আগে আমাদের অবশ্যই এসব দুর্বলতা নিয়ে কথা বলা উচিৎ।' তিনি আরও বলেন, 'আমাদের গবেষণা যাচাইকরণ ও বৈধতা নিয়ে এমন একটি কাঠামো বানাচ্ছে, যা বিভিন্ন রোবটিক সিস্টেম সংশ্লিষ্ট সামাজিক নীতিমালার সঙ্গে সঙ্গতিপূর্ণ।'