আজ কৃত্রিম বুদ্ধিমত্তা আসলে কী করতে পারে
আজ কৃত্রিম বুদ্ধিমত্তা আসলে কী করতে পারে
Anonim

স্পয়লার সতর্কতা: মেশিনের অভ্যুত্থানের আগে এখনও অনেক সময় বাকি।

আজ কৃত্রিম বুদ্ধিমত্তা আসলে কী করতে পারে
আজ কৃত্রিম বুদ্ধিমত্তা আসলে কী করতে পারে

এলন মাস্ক যখন হিউম্যানয়েড রোবট টেসলা বট প্রবর্তন করেন, তখন মনে হয় যে একটি নতুন বৈজ্ঞানিক বিপ্লব ঠিক কোণার কাছাকাছি। আর একটু বেশি - এবং কৃত্রিম বুদ্ধিমত্তা (AI) মানুষকে ছাড়িয়ে যাবে, এবং মেশিন আমাদের কাজের জায়গায় প্রতিস্থাপন করবে। যাইহোক, প্রফেসর গ্যারি মার্কাস এবং আর্নেস্ট ডেভিস, দুজনই বিখ্যাত এআই বিশেষজ্ঞ, এই ধরনের সিদ্ধান্তে ছুটে না যেতে বলা হয়েছে।

কৃত্রিম বুদ্ধিমত্তা রিবুটে, গবেষকরা ব্যাখ্যা করেছেন কেন আধুনিক প্রযুক্তি আদর্শ থেকে অনেক দূরে। প্রকাশনা সংস্থার অনুমতি নিয়ে "আল্পিনা প্রো" লাইফহ্যাকার প্রথম অধ্যায়ের একটি অংশ প্রকাশ করে।

এই মুহুর্তে, আমাদের উচ্চাকাঙ্ক্ষা এবং কৃত্রিম বুদ্ধিমত্তার বাস্তবতার মধ্যে একটি বিশাল ব্যবধান - একটি বাস্তব খাদ -। তিনটি সুনির্দিষ্ট সমস্যার অমীমাংসিততার কারণে এই ফাটলটি দেখা দিয়েছে, যার প্রতিটিকে সততার সাথে মোকাবেলা করতে হবে।

এর মধ্যে প্রথমটি হল যাকে আমরা ভোলিবিলিটি বলি, যা এই সত্যের উপর ভিত্তি করে যে আমরা মানুষরা মানুষ এবং মেশিনের মধ্যে পার্থক্য করতে শিখিনি এবং এটি আমাদের বোকা বানানো সহজ করে তোলে। আমরা কম্পিউটারের জন্য বুদ্ধিমত্তাকে দায়ী করি কারণ আমরা নিজেরাই বিবর্তিত হয়েছি এবং এমন লোকেদের মধ্যে বসবাস করেছি যারা মূলত ধারণা, বিশ্বাস এবং আকাঙ্ক্ষার মতো বিমূর্ততার উপর তাদের ক্রিয়াকলাপকে ভিত্তি করে। মেশিনের আচরণ প্রায়শই মানুষের আচরণের সাথে অতিমাত্রায় অনুরূপ হয়, তাই আমরা দ্রুত মেশিনগুলিকে একই ধরণের মৌলিক প্রক্রিয়া বরাদ্দ করি, এমনকি যদি মেশিনে সেগুলি না থাকে।

আমরা সাহায্য করতে পারি না কিন্তু জ্ঞানীয় পরিপ্রেক্ষিতে মেশিনের কথা ভাবতে পারি ("আমার কম্পিউটার মনে করে আমি আমার ফাইল মুছে ফেলেছি"), মেশিনগুলি আসলে যে নিয়মগুলি অনুসরণ করে তা কোন ব্যাপার না। কিন্তু কৃত্রিম বুদ্ধিমত্তা প্রোগ্রামগুলিতে প্রয়োগ করার সময় মানুষের উপর প্রয়োগ করার সময় যে সিদ্ধান্তগুলি নিজেদেরকে ন্যায্যতা দেয় তা সম্পূর্ণ ভুল হতে পারে। সামাজিক মনোবিজ্ঞানের একটি মৌলিক নীতির প্রতি শ্রদ্ধা রেখে, আমরা এটিকে মৌলিক বৈধতা ত্রুটি বলি।

এই ত্রুটির প্রথম দৃষ্টান্তগুলির মধ্যে একটি 1960-এর দশকের মাঝামাঝি সময়ে ঘটেছিল, যখন এলিজা নামে একটি চ্যাটবট কিছু লোককে বোঝায় যে তারা তাকে যা বলছে তা তিনি সত্যিই বুঝতে পেরেছিলেন। আসলে, এলিজা সবেমাত্র কীওয়ার্ড তুলেছিল, ব্যক্তিটি তাকে যা বলেছিল তার শেষ কথাটি পুনরাবৃত্তি করেছিল এবং একটি শেষ অবস্থায় সে "আপনার শৈশব সম্পর্কে আমাকে বলুন" এর মতো সাধারণ কথোপকথনের কৌশল অবলম্বন করেছিল। আপনি যদি আপনার মায়ের কথা উল্লেখ করেন তবে তিনি আপনাকে আপনার পরিবার সম্পর্কে জিজ্ঞাসা করবেন, যদিও পরিবার আসলে কী বা কেন এটি মানুষের কাছে গুরুত্বপূর্ণ তা সম্পর্কে তার কোনো ধারণা ছিল না। এটা ছিল কৌশলের একটি সেট, সত্যিকারের বুদ্ধিমত্তার প্রদর্শন নয়।

এলিজা লোকেদের মোটেও বুঝতে পারেনি তা সত্ত্বেও, অনেক ব্যবহারকারী তার সাথে কথোপকথন করে বোকা বানিয়েছিলেন। কেউ কেউ কীবোর্ডে বাক্যাংশ টাইপ করতে ঘণ্টার পর ঘণ্টা কাটিয়েছে, এলিজার সঙ্গে এভাবে কথা বলছে, কিন্তু চ্যাটবটের কৌশলের ভুল ব্যাখ্যা করছে, সহায়ক, আন্তরিক পরামর্শ বা সহানুভূতির জন্য তোতাপাখির বক্তৃতা ভুল করেছে।

জোসেফ উইজেনবাউম এলিজার স্রষ্টা।

যে লোকেরা খুব ভাল করে জানত যে তারা একটি যন্ত্রের সাথে কথা বলছে শীঘ্রই এই সত্যটি ভুলে গেছে, ঠিক যেমন থিয়েটার প্রেমীরা তাদের অবিশ্বাসকে কিছুক্ষণের জন্য দূরে সরিয়ে ফেলে এবং ভুলে যায় যে তারা যে ক্রিয়াটি দেখেছে তাকে বাস্তব বলার অধিকার নেই।

এলিজার কথোপকথনকারীরা প্রায়শই সিস্টেমের সাথে একটি ব্যক্তিগত কথোপকথনের জন্য অনুমতি চেয়েছিলেন এবং কথোপকথনের পরে জোর দিয়েছিলেন, আমার সমস্ত ব্যাখ্যা সত্ত্বেও, মেশিনটি সত্যিই তাদের বুঝতে পেরেছিল।

অন্য ক্ষেত্রে, সত্যতা মূল্যায়নে ত্রুটি শব্দের আক্ষরিক অর্থে মারাত্মক হতে পারে। 2016 সালে, একটি স্বয়ংক্রিয় টেসলা গাড়ির একজন মালিক অটোপাইলট মোডের আপাতদৃষ্টিতে সুরক্ষার উপর এতটাই নির্ভর করেছিলেন যে (গল্প অনুসারে) তিনি সম্পূর্ণরূপে হ্যারি পটার চলচ্চিত্রগুলি দেখার মধ্যে নিজেকে নিমগ্ন করেছিলেন, গাড়িটি নিজেরাই সবকিছু করতে রেখেছিলেন।

সবকিছু ঠিকঠাক হয়ে গেছে - যতক্ষণ না কিছু সময়ে এটি খারাপ হয়ে যায়। দুর্ঘটনা ছাড়াই শত শত বা এমনকি হাজার হাজার মাইল চালনা করার পরে, গাড়িটি একটি অপ্রত্যাশিত বাধার সাথে (শব্দের প্রতিটি অর্থে) ধাক্কা খেয়েছিল: একটি সাদা ট্রাক হাইওয়ে অতিক্রম করেছিল এবং টেসলা ঠিক ট্রেলারের নীচে ছুটে যায়, গাড়ির মালিক ঘটনাস্থলেই মারা যায়।. (গাড়িটি বেশ কয়েকবার চালককে নিয়ন্ত্রণে নেওয়ার জন্য সতর্ক করতে দেখা গেছে, কিন্তু চালক দ্রুত প্রতিক্রিয়া জানাতে খুব শিথিল বলে মনে হচ্ছে।)

এই গল্পের নৈতিকতা স্পষ্ট: একটি ডিভাইস এক বা দুই মুহুর্তের জন্য "স্মার্ট" বলে মনে হতে পারে (এবং এমনকি ছয় মাস) এর মানে এই নয় যে এটি সত্যিই এমন বা এটি এমন সমস্ত পরিস্থিতিতে মোকাবেলা করতে পারে যেখানে একজন ব্যক্তি পর্যাপ্তভাবে প্রতিক্রিয়া জানাবে।

দ্বিতীয় সমস্যাটিকে আমরা দ্রুত অগ্রগতির বিভ্রম বলি: কৃত্রিম বুদ্ধিমত্তার ভুল অগ্রগতি, সহজ সমস্যা সমাধানের সাথে যুক্ত, অগ্রগতির জন্য, সত্যিই কঠিন সমস্যা সমাধানের সাথে যুক্ত। এটি, উদাহরণস্বরূপ, আইবিএম ওয়াটসন সিস্টেমের সাথে ঘটেছে: গেমে এর অগ্রগতি বিপদ! খুব প্রতিশ্রুতিশীল বলে মনে হয়েছিল, কিন্তু প্রকৃতপক্ষে সিস্টেমটি ডেভেলপারদের প্রত্যাশার চেয়ে মানুষের ভাষা বোঝার থেকে অনেক বেশি এগিয়ে গেছে।

এটা সম্ভব যে DeepMind এর AlphaGo প্রোগ্রাম একই পথ অনুসরণ করবে। দাবা খেলার মতোই একটি আদর্শ তথ্যের খেলা যেখানে উভয় খেলোয়াড়ই যে কোনো সময় পুরো বোর্ড দেখতে পারে এবং নৃশংস বল দ্বারা চালনার পরিণতি গণনা করতে পারে।

বেশিরভাগ ক্ষেত্রে, বাস্তব জীবনে, কেউ সম্পূর্ণ নিশ্চিতভাবে কিছু জানে না; আমাদের তথ্য প্রায়ই অসম্পূর্ণ বা বিকৃত হয়.

এমনকি সহজ ক্ষেত্রে, অনেক অনিশ্চয়তা আছে। আমরা যখন সিদ্ধান্ত নিই যে পায়ে হেঁটে ডাক্তারের কাছে যাব নাকি পাতাল রেলে যাব (যেহেতু দিনটি মেঘলা), পাতাল রেল ট্রেনের জন্য অপেক্ষা করতে কতক্ষণ সময় লাগবে, ট্রেনটি রাস্তায় আটকে যাবে কিনা, আমরা জানি না। আমরা ব্যারেলে হেরিংয়ের মতো গাড়িতে চড়ব বা বাইরে বৃষ্টিতে ভিজে যাব, পাতাল রেলে যাওয়ার সাহস হবে না, এবং আমাদের দেরিতে ডাক্তার কীভাবে প্রতিক্রিয়া জানাবেন।

আমরা সবসময় আমাদের কাছে থাকা তথ্য নিয়ে কাজ করি। লক্ষ লক্ষ বার নিজের সাথে Go বাজানো, DeepMind AlphaGo সিস্টেম কখনও অনিশ্চয়তার সাথে মোকাবিলা করেনি, এটি কেবল জানে না যে তথ্যের অভাব বা এর অসম্পূর্ণতা এবং অসঙ্গতি কি, মানুষের মিথস্ক্রিয়া জটিলতার কথা উল্লেখ না করা।

আরেকটি পরামিতি রয়েছে যা মাইন্ড গেমগুলিকে বাস্তব বিশ্বের থেকে খুব আলাদা করে তোলে এবং এটি আবার ডেটার সাথে সম্পর্কিত। এমনকি জটিল গেমগুলিও (যদি নিয়মগুলি যথেষ্ট কঠোর হয়) প্রায় নিখুঁতভাবে মডেল করা যেতে পারে, তাই কৃত্রিম বুদ্ধিমত্তার সিস্টেমগুলি যেগুলি সেগুলি খেলে তারা সহজেই প্রশিক্ষণের জন্য প্রয়োজনীয় বিপুল পরিমাণ ডেটা সংগ্রহ করতে পারে। সুতরাং, গো-এর ক্ষেত্রে, একটি মেশিন কেবল নিজের বিরুদ্ধে খেলে মানুষের সাথে একটি গেম অনুকরণ করতে পারে; এমনকি সিস্টেমের টেরাবাইট ডেটার প্রয়োজন হলেও, এটি নিজেই এটি তৈরি করবে।

প্রোগ্রামাররা এইভাবে অল্প বা বিনা খরচে সম্পূর্ণ পরিষ্কার সিমুলেশন ডেটা পেতে পারে। বিপরীতে, বাস্তব বিশ্বে, পুরোপুরি পরিষ্কার ডেটা বিদ্যমান নেই, এটি অনুকরণ করা অসম্ভব (যেহেতু গেমের নিয়মগুলি ক্রমাগত পরিবর্তিত হচ্ছে), এবং পরীক্ষা করে অনেক গিগাবাইট প্রাসঙ্গিক ডেটা সংগ্রহ করা আরও কঠিন। এবং ত্রুটি।

বাস্তবে, বিভিন্ন কৌশল পরীক্ষা করার জন্য আমাদের মাত্র কয়েকটি প্রচেষ্টা রয়েছে।

উদাহরণস্বরূপ, পরিবহন পছন্দের ক্ষেত্রে আমাদের আচরণ নাটকীয়ভাবে উন্নত করার জন্য, প্রতিটি দর্শনের আগে ধীরে ধীরে সিদ্ধান্তের পরামিতিগুলি সামঞ্জস্য করে, আমরা 10 মিলিয়ন বার ডাক্তারের সাথে দেখা করতে পারি না।

যদি প্রোগ্রামাররা বয়স্কদের সাহায্য করার জন্য একটি রোবটকে প্রশিক্ষণ দিতে চান (বলুন, অসুস্থ ব্যক্তিদের বিছানায় শুতে সাহায্য করার জন্য), প্রতিটি বিট ডেটা প্রকৃত অর্থ এবং প্রকৃত মানুষের সময়ের মূল্য হবে; সিমুলেশন গেম ব্যবহার করে সমস্ত প্রয়োজনীয় ডেটা সংগ্রহ করার কোন উপায় নেই। এমনকি ক্র্যাশ টেস্ট ডামিও প্রকৃত মানুষদের প্রতিস্থাপন করতে পারে না।

বিভিন্ন ধরণের বিছানা, বিভিন্ন ধরণের পায়জামা, বিভিন্ন ধরণের ঘরের বিভিন্ন বৈশিষ্ট্য সহ সত্যিকারের বয়স্ক ব্যক্তিদের ডেটা সংগ্রহ করা প্রয়োজন এবং এখানে আপনি ভুল করতে পারবেন না, কারণ একজন ব্যক্তিকে কয়েক দূরত্বেও ফেলে দেওয়া। বিছানা থেকে সেন্টিমিটার একটি বিপর্যয় হবে. এই ক্ষেত্রে, সংকীর্ণ কৃত্রিম বুদ্ধিমত্তার পদ্ধতি ব্যবহার করে এই এলাকায় একটি নির্দিষ্ট অগ্রগতি (এখন পর্যন্ত সবচেয়ে প্রাথমিক) অর্জিত হয়েছে। কম্পিউটার সিস্টেমগুলি তৈরি করা হয়েছে যা ভিডিও গেম ডোটা 2 এবং স্টারক্রাফ্ট 2-এ প্রায় সেরা মানব খেলোয়াড়দের স্তরে খেলতে পারে, যেখানে যে কোনও নির্দিষ্ট সময়ে অংশগ্রহণকারীদের শুধুমাত্র গেমের জগতের অংশ দেখানো হয় এবং এইভাবে, প্রতিটি খেলোয়াড়ের মুখোমুখি হয় তথ্যের অভাবের সমস্যা - যেটি ক্লজউইটজের হালকা হাত দিয়ে "অজানা কুয়াশা" বলা হয়। যাইহোক, উন্নত সিস্টেমগুলি এখনও খুব সংকীর্ণভাবে ফোকাসড এবং অপারেশনে অস্থির থাকে। উদাহরণ স্বরূপ, স্টারক্রাফ্ট 2-এ বাজানো আলফাস্টার প্রোগ্রামটি বিভিন্ন ধরণের চরিত্র থেকে শুধুমাত্র একটি নির্দিষ্ট জাতি শিখেছে, এবং এই বিকাশগুলির প্রায় কোনওটিই অন্য কোনও জাতি হিসাবে খেলার যোগ্য নয়। এবং, অবশ্যই, বিশ্বাস করার কোন কারণ নেই যে এই প্রোগ্রামগুলিতে ব্যবহৃত পদ্ধতিগুলি আরও জটিল বাস্তব-জীবনের পরিস্থিতিতে সফল সাধারণীকরণ করার জন্য উপযুক্ত। বাস্তব জীবন যেমন আইবিএম একবার নয়, ইতিমধ্যে দুবার আবিষ্কার করেছে (প্রথমে দাবাতে, এবং তারপরে বিপদে!), একটি বদ্ধ বিশ্ব থেকে সমস্যায় সাফল্য উন্মুক্ত বিশ্বে সাফল্যের নিশ্চয়তা দেয় না।

বর্ণিত খাদের তৃতীয় বৃত্তটি নির্ভরযোগ্যতার অত্যধিক মূল্যায়ন। বারবার, আমরা দেখতে পাই যে কৃত্রিম বুদ্ধিমত্তার সাহায্যে লোকেরা কিছু সময়ের জন্য ব্যর্থতা ছাড়াই কাজ করতে পারে এমন কিছু সমস্যার সমাধান খুঁজে পাওয়ার সাথে সাথে তারা স্বয়ংক্রিয়ভাবে ধরে নেয় যে সংশোধন (এবং কিছুটা বড় পরিমাণ ডেটা সহ) সবকিছু নির্ভরযোগ্যভাবে কাজ করবে. সময়. কিন্তু এটা অগত্যা নয়।

আমরা আবার চালক ছাড়া গাড়ি নিয়ে যাই। একটি স্বায়ত্তশাসিত গাড়ির ডেমো তৈরি করা তুলনামূলকভাবে সহজ যা একটি শান্ত রাস্তায় পরিষ্কারভাবে চিহ্নিত লেন বরাবর সঠিকভাবে চালাবে; যাইহোক, মানুষ এক শতাব্দীরও বেশি সময় ধরে এটি করতে সক্ষম হয়েছে। যাইহোক, কঠিন বা অপ্রত্যাশিত পরিস্থিতিতে এই সিস্টেমগুলিকে কাজ করা অনেক বেশি কঠিন।

মিসি কামিংস, ডিউক ইউনিভার্সিটির হিউম্যানস অ্যান্ড অটোনমি ল্যাবরেটরির ডিরেক্টর (এবং মার্কিন নৌবাহিনীর একজন প্রাক্তন ফাইটার পাইলট) আমাদের একটি ইমেলে বলেছেন, প্রশ্নটি এই নয় যে একটি চালকবিহীন গাড়ি দুর্ঘটনা ছাড়াই কত মাইল ভ্রমণ করতে পারে। যা এই গাড়িগুলি পরিবর্তিত পরিস্থিতিতে মানিয়ে নিতে সক্ষম। তার মিসি কামিংস অনুসারে, 22 সেপ্টেম্বর, 2018 এ লেখকদের ইমেল করুন।, আধুনিক আধা-স্বায়ত্তশাসিত যানবাহন "সাধারণত শুধুমাত্র একটি খুব সংকীর্ণ পরিসরে কাজ করে, যা তারা কীভাবে আদর্শ অবস্থার চেয়ে কম অধীনে কাজ করতে পারে সে সম্পর্কে কিছুই বলে না।"

ফিনিক্সে লক্ষ লক্ষ টেস্ট মাইলে সম্পূর্ণ নির্ভরযোগ্য দেখার অর্থ বোম্বেতে বর্ষাকালে ভাল পারফর্ম করা নয়।

স্বায়ত্তশাসিত যানবাহনগুলি আদর্শ পরিস্থিতিতে কীভাবে আচরণ করে (যেমন শহরতলির মাল্টি-লেনের রাস্তায় রৌদ্রোজ্জ্বল দিন) এবং চরম পরিস্থিতিতে তারা কী করতে পারে তার মধ্যে এই মৌলিক পার্থক্যটি একটি সম্পূর্ণ শিল্পের জন্য সহজেই সাফল্য এবং ব্যর্থতার বিষয় হয়ে উঠতে পারে।

চরম পরিস্থিতিতে স্বায়ত্তশাসিত ড্রাইভিং এর উপর খুব কম জোর দিয়ে এবং বর্তমান পদ্ধতিটি নিশ্চিত করার দিক থেকে বিকশিত হয়নি যে অটোপাইলট সঠিকভাবে কাজ করবে এমন পরিস্থিতিতে যা বাস্তবে বিবেচিত হতে শুরু করেছে, এটি খুব শীঘ্রই স্পষ্ট হয়ে যাবে যে বিলিয়ন ডলার স্ব-ড্রাইভিং গাড়ি তৈরির পদ্ধতিতে ব্যয় করা হয়েছে যা কেবল মানুষের মতো ড্রাইভিং নির্ভরযোগ্যতা প্রদান করতে ব্যর্থ হয়।এটা সম্ভব যে আমাদের যে প্রযুক্তিগত আত্মবিশ্বাসের প্রয়োজন তা অর্জন করতে, বর্তমানের থেকে মৌলিকভাবে ভিন্ন পদ্ধতির প্রয়োজন।

এবং গাড়িগুলি অনেকগুলি অনুরূপগুলির একটি মাত্র উদাহরণ। কৃত্রিম বুদ্ধিমত্তার উপর আধুনিক গবেষণায়, বিশ্বব্যাপী এর নির্ভরযোগ্যতাকে অবমূল্যায়ন করা হয়েছে। এটি আংশিকভাবে কারণ এই এলাকার বর্তমান উন্নয়নের অধিকাংশই এমন সমস্যা জড়িত যা অত্যন্ত ত্রুটি-সহনশীল, যেমন বিজ্ঞাপনের সুপারিশ করা বা নতুন পণ্যের প্রচার।

প্রকৃতপক্ষে, যদি আমরা আপনাকে পাঁচ ধরনের পণ্য সুপারিশ করি এবং আপনি শুধুমাত্র তিনটি পছন্দ করেন, তাহলে কোনো ক্ষতি হবে না। কিন্তু চালকবিহীন গাড়ি, বয়স্কদের যত্ন এবং স্বাস্থ্যসেবা পরিকল্পনা সহ ভবিষ্যতের জন্য বেশ কয়েকটি গুরুত্বপূর্ণ AI অ্যাপ্লিকেশনগুলিতে, মানুষের মতো নির্ভরযোগ্যতা গুরুত্বপূর্ণ হবে।

কেউ এমন একটি হোম রোবট কিনবে না যা আপনার বৃদ্ধ দাদাকে নিরাপদে পাঁচজনের মধ্যে চারবার বিছানায় নিয়ে যেতে পারে।

এমনকি সেই সমস্ত কাজগুলিতে যেখানে আধুনিক কৃত্রিম বুদ্ধিমত্তা তাত্ত্বিকভাবে সর্বোত্তম সম্ভাব্য আলোতে উপস্থিত হওয়া উচিত, গুরুতর ব্যর্থতা নিয়মিত ঘটে, কখনও কখনও খুব মজার দেখায়। একটি সাধারণ উদাহরণ: কম্পিউটারগুলি, নীতিগতভাবে, এই বা সেই ছবিতে কী (বা ঘটছে) তা কীভাবে চিনতে হয় তা ইতিমধ্যেই বেশ ভালভাবে শিখেছে।

কখনও কখনও এই অ্যালগরিদমগুলি দুর্দান্ত কাজ করে, তবে প্রায়শই তারা সম্পূর্ণ অবিশ্বাস্য ত্রুটি তৈরি করে। আপনি যদি একটি স্বয়ংক্রিয় সিস্টেমে একটি চিত্র দেখান যা প্রতিদিনের দৃশ্যের ফটোগ্রাফের জন্য ক্যাপশন তৈরি করে, আপনি প্রায়শই একটি উত্তর পাবেন যা একজন মানুষ যা লিখবে তার অনুরূপ; উদাহরণস্বরূপ, নীচের দৃশ্যের জন্য, যেখানে একদল লোক ফ্রিসবি খেলছে, গুগলের উচ্চ প্রচারিত সাবটাইটেল জেনারেটিং সিস্টেম এটিকে ঠিক সঠিক নাম দেয়।

চিত্র 1.1। ফ্রিসবি খেলছে তরুণদের দল (প্রশংসনীয় ছবির ক্যাপশন, স্বয়ংক্রিয়ভাবে এআই দ্বারা তৈরি)
চিত্র 1.1। ফ্রিসবি খেলছে তরুণদের দল (প্রশংসনীয় ছবির ক্যাপশন, স্বয়ংক্রিয়ভাবে এআই দ্বারা তৈরি)

কিন্তু পাঁচ মিনিট পরে, আপনি সহজেই একই সিস্টেম থেকে একটি একেবারে অযৌক্তিক উত্তর পেতে পারেন, যেমনটি ঘটেছে, উদাহরণস্বরূপ, এই রাস্তার চিহ্নটি দিয়ে, যার উপর কেউ স্টিকার আটকে দিয়েছে: কম্পিউটার নামক সিস্টেমের নির্মাতারা ব্যাখ্যা করেনি কেন এই ত্রুটি ঘটেছে, কিন্তু এই ধরনের ঘটনা অস্বাভাবিক নয়। আমরা অনুমান করতে পারি যে এই বিশেষ ক্ষেত্রে সিস্টেমটি ফটোগ্রাফটিকে শ্রেণীবদ্ধ করেছে (সম্ভবত রঙ এবং টেক্সচারের দিক থেকে) অন্যান্য ছবির মতো (যা থেকে এটি শিখেছি) লেবেলযুক্ত "অনেক খাবার এবং পানীয়তে ভরা একটি রেফ্রিজারেটর"। স্বাভাবিকভাবেই, কম্পিউটার বুঝতে পারেনি (যা একজন ব্যক্তি সহজেই বুঝতে পারে) যে এই ধরনের একটি শিলালিপি কেবলমাত্র একটি বড় আয়তক্ষেত্রাকার ধাতব বাক্সের ক্ষেত্রেই উপযুক্ত হবে যার ভিতরে বিভিন্ন (এবং তারপরেও সমস্ত নয়) বস্তু রয়েছে। এই দৃশ্যটি "প্রচুর খাবার এবং পানীয় সহ একটি রেফ্রিজারেটর।"

ভাত। 1.2। রেফ্রিজারেটর খাবার এবং পানীয়ের লোড দিয়ে ভরা (সম্পূর্ণভাবে অকল্পনীয় শিরোনাম, উপরের মতো একই সিস্টেম দ্বারা তৈরি)
ভাত। 1.2। রেফ্রিজারেটর খাবার এবং পানীয়ের লোড দিয়ে ভরা (সম্পূর্ণভাবে অকল্পনীয় শিরোনাম, উপরের মতো একই সিস্টেম দ্বারা তৈরি)

একইভাবে, চালকবিহীন গাড়িগুলি প্রায়শই সঠিকভাবে চিহ্নিত করে যা তারা "দেখে" কিন্তু কখনও কখনও তারা স্পষ্টটিকে উপেক্ষা করে বলে মনে হয়, যেমন টেসলার ক্ষেত্রে, যা নিয়মিতভাবে অটোপাইলটে পার্ক করা ফায়ার ট্রাক বা অ্যাম্বুলেন্সে বিধ্বস্ত হয়। এই ধরনের অন্ধ দাগ আরও বেশি বিপজ্জনক হতে পারে যদি সেগুলি এমন সিস্টেমে থাকে যা পাওয়ার গ্রিড নিয়ন্ত্রণ করে বা জনস্বাস্থ্য পর্যবেক্ষণের জন্য দায়ী।

উচ্চাকাঙ্ক্ষা এবং কৃত্রিম বুদ্ধিমত্তার বাস্তবতার মধ্যে ব্যবধান দূর করার জন্য, আমাদের তিনটি জিনিসের প্রয়োজন: এই গেমটিতে মূল্যবোধ সম্পর্কে একটি স্পষ্ট সচেতনতা, কেন আধুনিক AI সিস্টেমগুলি তাদের কার্যাবলী যথেষ্ট নির্ভরযোগ্যভাবে সম্পাদন করে না তার একটি পরিষ্কার বোঝা, এবং, অবশেষে, একটি নতুন উন্নয়ন কৌশল মেশিন চিন্তা.

যেহেতু কৃত্রিম বুদ্ধিমত্তার বাজি চাকরি, নিরাপত্তা এবং সমাজের কাঠামোর ক্ষেত্রে সত্যিই অনেক বেশি, তাই আমাদের সকলের - এআই পেশাদার, সংশ্লিষ্ট পেশাজীবী, সাধারণ নাগরিক এবং রাজনীতিবিদদের - বিষয়ের প্রকৃত অবস্থা বোঝার জরুরি প্রয়োজন। আজকের কৃত্রিম বুদ্ধিমত্তার বিকাশের স্তর এবং প্রকৃতিকে সমালোচনামূলকভাবে মূল্যায়ন করার জন্য এই ক্ষেত্রে।

সংবাদ এবং পরিসংখ্যানে আগ্রহী নাগরিকদের জন্য শব্দ এবং সংখ্যা দিয়ে মানুষকে বিভ্রান্ত করা কতটা সহজ তা বোঝা যেমন গুরুত্বপূর্ণ, তেমনি এখানে বোঝার একটি ক্রমবর্ধমান তাৎপর্যপূর্ণ দিক রয়েছে যাতে আমরা বুঝতে পারি যে কৃত্রিম বুদ্ধিমত্তা কোথায়। শুধুমাত্র বিজ্ঞাপন, কিন্তু এটা বাস্তব কোথায়; তিনি এখন কি করতে সক্ষম, এবং তিনি কি জানেন না কিভাবে এবং, সম্ভবত, শিখবেন না।

সবচেয়ে গুরুত্বপূর্ণ বিষয় হল উপলব্ধি করা যে কৃত্রিম বুদ্ধিমত্তা জাদু নয়, তবে কৌশল এবং অ্যালগরিদমের একটি সেট, যার প্রত্যেকটির নিজস্ব শক্তি এবং দুর্বলতা রয়েছে, কিছু কাজের জন্য উপযুক্ত এবং অন্যদের জন্য উপযুক্ত নয়। আমরা এই বইটি লেখার মূল কারণগুলির মধ্যে একটি হল যে আমরা কৃত্রিম বুদ্ধিমত্তা সম্পর্কে যা পড়ি তার বেশিরভাগই আমাদের কাছে একটি পরম ফ্যান্টাসি বলে মনে হয়, কৃত্রিম বুদ্ধিমত্তার প্রায় জাদুকরী শক্তির উপর ভিত্তিহীন আস্থা থেকে বেড়ে ওঠা।

এদিকে, আধুনিক প্রযুক্তিগত ক্ষমতার সাথে এই কথাসাহিত্যের কোনো সম্পর্ক নেই। দুর্ভাগ্যবশত, সাধারণ জনগণের মধ্যে এআই-এর আলোচনা জল্পনা-কল্পনা এবং অতিরঞ্জন দ্বারা প্রবলভাবে প্রভাবিত হয়েছে: বেশিরভাগ মানুষই জানেন না যে সার্বজনীন কৃত্রিম বুদ্ধিমত্তা তৈরি করা কতটা কঠিন।

এর আরও আলোচনা স্পষ্ট করা যাক. যদিও AI এর সাথে সম্পর্কিত বাস্তবতাগুলিকে স্পষ্ট করার জন্য আমাদের কাছ থেকে গুরুতর সমালোচনার প্রয়োজন হবে, আমরা নিজেরাই কোনওভাবেই কৃত্রিম বুদ্ধিমত্তার বিরোধী নই, আমরা প্রযুক্তিগত অগ্রগতির এই দিকটিকে সত্যিই পছন্দ করি। আমরা এই ক্ষেত্রে পেশাদার হিসাবে আমাদের জীবনের একটি উল্লেখযোগ্য অংশ কাটিয়েছি এবং আমরা এটি যত তাড়াতাড়ি সম্ভব বিকাশ করতে চাই।

আমেরিকান দার্শনিক হুবার্ট ড্রেফাস একবার কী উচ্চতা নিয়ে একটি বই লিখেছিলেন, তার মতে, কৃত্রিম বুদ্ধিমত্তা কখনই পৌঁছাতে পারে না। এই এই বই সম্পর্কে কি না. এটি আংশিকভাবে AI বর্তমানে কী করতে পারে না এবং কেন এটি বোঝা গুরুত্বপূর্ণ তার উপর ফোকাস করে, তবে এটির একটি উল্লেখযোগ্য অংশ কম্পিউটারের চিন্তাভাবনা উন্নত করতে এবং এটিকে এমন এলাকায় প্রসারিত করার জন্য কী করা যেতে পারে সে সম্পর্কে আলোচনা করে যেখানে এটি এখন প্রথমে করতে অসুবিধা হয়৷ পদক্ষেপ৷

আমরা কৃত্রিম বুদ্ধিমত্তা অদৃশ্য হতে চাই না; আমরা এটিকে উন্নত করতে চাই, উপরন্তু, আমূলভাবে, যাতে আমরা সত্যিই এটির উপর নির্ভর করতে পারি এবং এর সাহায্যে মানবজাতির অনেক সমস্যা সমাধান করতে পারি। কৃত্রিম বুদ্ধিমত্তার বর্তমান অবস্থা নিয়ে আমাদের অনেক সমালোচনা আছে, কিন্তু আমাদের সমালোচনা হল আমরা যে বিজ্ঞান করি তার প্রতি ভালবাসার বহিঃপ্রকাশ, সবকিছু ছেড়ে দেওয়ার এবং ত্যাগ করার আহ্বান নয়।

সংক্ষেপে, আমরা বিশ্বাস করি যে কৃত্রিম বুদ্ধিমত্তা প্রকৃতপক্ষে আমাদের বিশ্বকে গুরুতরভাবে পরিবর্তন করতে পারে; কিন্তু আমরা এটাও বিশ্বাস করি যে বাস্তব অগ্রগতি সম্পর্কে কথা বলার আগে এআই সম্পর্কে অনেক প্রাথমিক অনুমান পরিবর্তন করতে হবে। আমাদের কৃত্রিম বুদ্ধিমত্তার প্রস্তাবিত "রিসেট" গবেষণাকে শেষ করার কোনো কারণ নয় (যদিও কেউ কেউ আমাদের বইটি ঠিক এই চেতনায় বুঝতে পারে), বরং একটি রোগ নির্ণয়: আমরা এখন কোথায় আটকে আছি এবং কীভাবে আমরা সেখান থেকে বেরিয়ে আসতে পারি? আজকের পরিস্থিতি।

আমরা বিশ্বাস করি যে সামনে অগ্রসর হওয়ার সর্বোত্তম উপায় হতে পারে আমাদের নিজের মনের কাঠামোর মুখোমুখি হওয়া, ভিতরের দিকে তাকানো।

সত্যিকারের বুদ্ধিমান মেশিনগুলিকে মানুষের সঠিক প্রতিরূপ হতে হবে না, তবে যে কেউ কৃত্রিম বুদ্ধিমত্তাকে সততার সাথে দেখেন তারা দেখতে পাবেন যে মানুষের কাছ থেকে এখনও অনেক কিছু শেখার আছে, বিশেষ করে ছোট বাচ্চাদের কাছ থেকে, যারা অনেক দিক দিয়ে মেশিনের চেয়ে অনেক বেশি উন্নত। তাদের নতুন ধারণাগুলি শোষণ এবং বোঝার ক্ষমতা।

চিকিৎসা বিজ্ঞানীরা প্রায়শই কম্পিউটারকে "অতিমানব" (একভাবে বা অন্য উপায়ে) সিস্টেম হিসাবে চিহ্নিত করেন, কিন্তু মানুষের মস্তিষ্ক এখনও অন্তত পাঁচটি দিক থেকে তার সিলিকন সমকক্ষগুলির থেকে অনেক বেশি উচ্চতর: আমরা ভাষা বুঝতে পারি, আমরা বিশ্ব বুঝতে পারি, আমরা নমনীয়ভাবে পারি। নতুন পরিস্থিতিতে মানিয়ে নিতে, আমরা দ্রুত নতুন জিনিস শিখতে পারি (এমনকি প্রচুর পরিমাণে ডেটা ছাড়াই) এবং অসম্পূর্ণ এবং এমনকি বিরোধপূর্ণ তথ্যের মুখে যুক্তি দিতে পারি। এই সমস্ত ফ্রন্টে, আধুনিক কৃত্রিম বুদ্ধিমত্তা সিস্টেমগুলি আশাহীনভাবে মানুষের পিছনে রয়েছে।

কৃত্রিম বুদ্ধিমত্তা রিবুট
কৃত্রিম বুদ্ধিমত্তা রিবুট

কৃত্রিম বুদ্ধিমত্তা: রিবুট এমন লোকেদের আগ্রহী করবে যারা আধুনিক প্রযুক্তি বুঝতে চায় এবং বুঝতে চায় কিভাবে এবং কখন AI এর একটি নতুন প্রজন্ম আমাদের জীবনকে আরও ভালো করে তুলতে পারে।

প্রস্তাবিত: