অস্ত্র হিসাবে ড্রোন এবং স্ব-চালিত গাড়ি: কেন আমাদের হ্যাকারদের ভয় পেতে হবে
অস্ত্র হিসাবে ড্রোন এবং স্ব-চালিত গাড়ি: কেন আমাদের হ্যাকারদের ভয় পেতে হবে
Anonim

কৃত্রিম বুদ্ধিমত্তা ভুল হাতে পড়লে, সভ্য বিশ্ব বিশৃঙ্খলার মধ্যে ডুবে যেতে পারে।

অস্ত্র হিসাবে ড্রোন এবং স্ব-চালিত গাড়ি: কেন আমাদের হ্যাকারদের ভয় পেতে হবে
অস্ত্র হিসাবে ড্রোন এবং স্ব-চালিত গাড়ি: কেন আমাদের হ্যাকারদের ভয় পেতে হবে

কেউ অস্বীকার করবে না যে কৃত্রিম বুদ্ধিমত্তা আমাদের জীবনকে পরবর্তী স্তরে নিয়ে যেতে পারে। AI অনেক সমস্যার সমাধান করতে সক্ষম যা মানুষের ক্ষমতার বাইরে।

যাইহোক, অনেকে বিশ্বাস করে যে সুপার ইন্টেলিজেন্স অবশ্যই স্কাইনেটের মতো আমাদের ধ্বংস করতে চাইবে বা পোর্টাল গেম থেকে GLADoS-এর মতো মানুষের উপর পরীক্ষা চালাতে শুরু করবে। পরিহাসের বিষয় হল যে শুধুমাত্র মানুষই কৃত্রিম বুদ্ধিমত্তাকে ভালো বা মন্দ করতে পারে।

কেন কৃত্রিম বুদ্ধিমত্তা একটি গুরুতর হুমকি হতে পারে
কেন কৃত্রিম বুদ্ধিমত্তা একটি গুরুতর হুমকি হতে পারে

ইয়েল ইউনিভার্সিটি, অক্সফোর্ড, কেমব্রিজ এবং ওপেনএআই-এর গবেষকরা কৃত্রিম বুদ্ধিমত্তার অপব্যবহারের বিষয়ে একটি প্রতিবেদন প্রকাশ করেছেন। এটা বলছে আসল বিপদ হ্যাকারদের কাছ থেকে আসে। দূষিত কোডের সাহায্যে, তারা এআই-এর নিয়ন্ত্রণে থাকা স্বয়ংক্রিয় সিস্টেমের কাজকে ব্যাহত করতে পারে।

গবেষকরা আশঙ্কা করছেন যে সৎ উদ্দেশ্যপ্রণোদিত প্রযুক্তিগুলি ক্ষতিগ্রস্থ হবে। উদাহরণস্বরূপ, নজরদারি সরঞ্জাম শুধুমাত্র সন্ত্রাসীদের ধরতে নয়, সাধারণ নাগরিকদের উপর গুপ্তচরবৃত্তির জন্যও ব্যবহার করা যেতে পারে। গবেষকরা খাদ্য সরবরাহকারী বাণিজ্যিক ড্রোন সম্পর্কেও উদ্বিগ্ন। তাদের আটকানো এবং বিস্ফোরক কিছু রোপণ করা সহজ।

AI এর ধ্বংসাত্মক ব্যবহারের আরেকটি দৃশ্য হল স্ব-চালিত গাড়ি। কোডের কয়েকটি লাইন পরিবর্তন করা যথেষ্ট, এবং মেশিনগুলি নিরাপত্তা নিয়ম উপেক্ষা করতে শুরু করবে।

কেন কৃত্রিম বুদ্ধিমত্তা একটি গুরুতর হুমকি হতে পারে
কেন কৃত্রিম বুদ্ধিমত্তা একটি গুরুতর হুমকি হতে পারে

বিজ্ঞানীরা বিশ্বাস করেন যে হুমকি ডিজিটাল, শারীরিক এবং রাজনৈতিক হতে পারে।

  • কৃত্রিম বুদ্ধিমত্তা ইতিমধ্যে বিভিন্ন সফ্টওয়্যার কোডের দুর্বলতা অধ্যয়ন করতে ব্যবহার করা হচ্ছে। ভবিষ্যতে, হ্যাকাররা এমন একটি বট তৈরি করতে পারে যা যেকোনো সুরক্ষাকে বাইপাস করবে।
  • AI এর সাহায্যে, একজন ব্যক্তি অনেকগুলি প্রক্রিয়া স্বয়ংক্রিয় করতে পারে: উদাহরণস্বরূপ, ড্রোনের একটি ঝাঁক বা গাড়ির একটি গ্রুপ নিয়ন্ত্রণ করা।
  • ডিপফেকের মতো প্রযুক্তির সাহায্যে, ইন্টারনেটে বট ব্যবহার করে বিশ্ব নেতাদের সম্পর্কে মিথ্যা তথ্য ছড়িয়ে রাষ্ট্রের রাজনৈতিক জীবনে প্রভাব ফেলা সম্ভব।

এই ভয়ঙ্কর উদাহরণগুলি এখন পর্যন্ত শুধুমাত্র একটি অনুমান হিসাবে বিদ্যমান। গবেষণার লেখকরা প্রযুক্তির সম্পূর্ণ প্রত্যাখ্যানের পরামর্শ দেন না। পরিবর্তে, তারা বিশ্বাস করে যে জাতীয় সরকার এবং বড় কোম্পানিগুলির নিরাপত্তার যত্ন নেওয়া উচিত যখন এআই শিল্প এখনও তার শৈশবকালে রয়েছে।

নীতিনির্ধারকদের অবশ্যই প্রযুক্তি অধ্যয়ন করতে হবে এবং কৃত্রিম বুদ্ধিমত্তার সৃষ্টি ও ব্যবহার কার্যকরভাবে নিয়ন্ত্রণ করতে ক্ষেত্রে বিশেষজ্ঞদের সাথে কাজ করতে হবে।

বিকাশকারীদের, পরিবর্তে, উচ্চ প্রযুক্তির দ্বারা সৃষ্ট বিপদের মূল্যায়ন করতে হবে, সবচেয়ে খারাপ পরিণতির পূর্বাভাস দিতে হবে এবং সেগুলি সম্পর্কে বিশ্ব নেতাদের সতর্ক করতে হবে। প্রতিবেদনে এআই ডেভেলপারদের অন্যান্য ক্ষেত্রে নিরাপত্তা বিশেষজ্ঞদের সাথে দল বেঁধে এবং এই প্রযুক্তিগুলির নিরাপত্তা নিশ্চিত করে এমন নীতিগুলি কৃত্রিম বুদ্ধিমত্তা রক্ষা করতে ব্যবহার করা যেতে পারে কিনা তা দেখার জন্য আহ্বান জানিয়েছে৷

সম্পূর্ণ প্রতিবেদনে সমস্যাটি আরও বিশদে বর্ণনা করা হয়েছে, তবে নীচের লাইনটি হল AI একটি শক্তিশালী টুল। সমস্ত আগ্রহী পক্ষের নতুন প্রযুক্তি অধ্যয়ন করা উচিত এবং নিশ্চিত করা উচিত যে এটি অপরাধমূলক উদ্দেশ্যে ব্যবহার করা হচ্ছে না।

প্রস্তাবিত: