কিভাবে এআই তার বিপজ্জনক সন্তানদের নিরীক্ষণ করতে পারে

সুচিপত্র:

কিভাবে এআই তার বিপজ্জনক সন্তানদের নিরীক্ষণ করতে পারে
কিভাবে এআই তার বিপজ্জনক সন্তানদের নিরীক্ষণ করতে পারে
Anonim

প্রধান টেকওয়ে

  • একটি নতুন গবেষণাপত্র দাবি করেছে যে কৃত্রিম বুদ্ধিমত্তা নির্ধারণ করতে পারে কোন গবেষণা প্রকল্পে অন্যদের তুলনায় বেশি নিয়ন্ত্রণের প্রয়োজন হতে পারে৷
  • এটি কী ধরনের AI বিপজ্জনক হতে পারে তা আবিষ্কার করার ক্রমবর্ধমান প্রচেষ্টার অংশ।
  • একজন বিশেষজ্ঞ বলেছেন AI এর আসল বিপদ হল এটি মানুষকে বোবা করে দিতে পারে।

Image
Image

কৃত্রিম বুদ্ধিমত্তা (AI) অনেক সুবিধা দেয়, কিন্তু কিছু সম্ভাব্য বিপদও দেয়। এবং এখন, গবেষকরা তাদের কম্পিউটারাইজড সৃষ্টির উপর নজর রাখার জন্য একটি পদ্ধতি প্রস্তাব করেছেন৷

একটি আন্তর্জাতিক দল একটি নতুন গবেষণাপত্রে বলেছে যে AI নির্ধারণ করতে পারে কোন ধরনের গবেষণা প্রকল্পে অন্যদের তুলনায় বেশি নিয়ন্ত্রণের প্রয়োজন হতে পারে। বিজ্ঞানীরা এমন একটি মডেল ব্যবহার করেছেন যা জীববিজ্ঞান এবং গণিতের ধারণাগুলিকে মিশ্রিত করে এবং কোন ধরনের AI বিপজ্জনক হতে পারে তা আবিষ্কার করার ক্রমবর্ধমান প্রচেষ্টার অংশ৷

"অবশ্যই, যদিও AI এর 'sci-fi' বিপজ্জনক ব্যবহার দেখা দিতে পারে যদি আমরা তাই সিদ্ধান্ত নিই […], যা AIকে বিপজ্জনক করে তোলে তা AI নিজে নয়, কিন্তু [আমরা কীভাবে এটি ব্যবহার করি]," থিয়েরি রায়না, ফ্রান্সের ইকোলে পলিটেকনিকের টেকনোলজি ফর চেঞ্জের চেয়ার, লাইফওয়্যারকে একটি ইমেল সাক্ষাত্কারে বলেছেন। "এআই প্রয়োগ করা হয় সক্ষমতা বৃদ্ধিকারী হতে পারে (উদাহরণস্বরূপ, এটি মানুষের/কর্মীর দক্ষতা এবং জ্ঞানের প্রাসঙ্গিকতাকে শক্তিশালী করে) অথবা সক্ষমতা ধ্বংস করে, যেমন, AI বিদ্যমান দক্ষতা এবং জ্ঞানকে কম দরকারী বা অপ্রচলিত করে তোলে।"

ট্যাব রাখা

সাম্প্রতিক কাগজের লেখকরা একটি পোস্টে লিখেছেন যে তারা অনুমানমূলক AI প্রতিযোগিতা অনুকরণ করার জন্য একটি মডেল তৈরি করেছেন। বাস্তব-বিশ্বের AI রেসগুলি কীভাবে কাজ করতে পারে তা অনুমান করার চেষ্টা করার জন্য তারা শত শত বার সিমুলেশন চালিয়েছে৷

"আমরা যে পরিবর্তনশীলটিকে বিশেষভাবে গুরুত্বপূর্ণ বলে মনে করেছি তা ছিল রেসের "দৈর্ঘ্য" - আমাদের সিমুলেটেড রেসগুলি তাদের উদ্দেশ্য (একটি কার্যকরী AI পণ্য) পৌঁছানোর জন্য যে সময় নিয়েছে," বিজ্ঞানীরা লিখেছেন। "যখন এআই রেস দ্রুত তাদের লক্ষ্যে পৌঁছেছে, তখন আমরা দেখতে পেলাম যে প্রতিযোগীরা যাদের আমরা সবসময় নিরাপত্তা সতর্কতা উপেক্ষা করার জন্য কোড করেছিলাম তারা সবসময় জিতেছে।"

বিপরীতভাবে, গবেষকরা দেখেছেন যে দীর্ঘমেয়াদী AI প্রকল্পগুলি ততটা বিপজ্জনক ছিল না কারণ বিজয়ীরা সর্বদা নিরাপত্তাকে উপেক্ষা করেন না। "এই ফলাফলের পরিপ্রেক্ষিতে, নিয়ন্ত্রকদের জন্য তাদের প্রত্যাশিত টাইমস্কেলের উপর ভিত্তি করে বিভিন্ন প্রবিধান প্রয়োগ করে বিভিন্ন এআই রেস কতক্ষণ স্থায়ী হতে পারে তা নির্ধারণ করা গুরুত্বপূর্ণ হবে," তারা লিখেছেন। "আমাদের অনুসন্ধানগুলি পরামর্শ দেয় যে সমস্ত AI রেসের জন্য একটি নিয়ম - স্প্রিন্ট থেকে ম্যারাথন - এমন কিছু ফলাফলের দিকে নিয়ে যাবে যা আদর্শ থেকে অনেক দূরে।"

ডেভিড ঝাও, কোডা স্ট্র্যাটেজির ব্যবস্থাপনা পরিচালক, একটি কোম্পানি যা এআই নিয়ে পরামর্শ করে, লাইফওয়্যারের সাথে একটি ইমেল সাক্ষাত্কারে বলেছেন যে বিপজ্জনক এআই সনাক্ত করা কঠিন হতে পারে। চ্যালেঞ্জগুলি এই সত্যের মধ্যে রয়েছে যে AI-তে আধুনিক পদ্ধতিগুলি গভীর শিক্ষার পদ্ধতি গ্রহণ করে৷

"আমরা জানি গভীর শিক্ষা অসংখ্য ব্যবহারের ক্ষেত্রে ভালো ফলাফল দেয়, যেমন চিত্র সনাক্তকরণ বা বক্তৃতা শনাক্তকরণ," ঝাও বলেন। "তবে, মানুষের পক্ষে বোঝা অসম্ভব যে কীভাবে একটি গভীর শিক্ষার অ্যালগরিদম কাজ করে এবং কীভাবে এটি তার আউটপুট তৈরি করে৷ তাই, একটি AI যা ভাল ফলাফল তৈরি করছে তা বিপজ্জনক কিনা তা বলা কঠিন কারণ মানুষের পক্ষে কী ঘটছে তা বোঝা অসম্ভব৷"

সফ্টওয়্যার যখন সমালোচনামূলক সিস্টেমে ব্যবহার করা হয় তখন "বিপজ্জনক" হতে পারে, যার দুর্বলতা রয়েছে যা খারাপ অভিনেতাদের দ্বারা শোষিত হতে পারে বা ভুল ফলাফল দিতে পারে, ম্যাট শিয়া, এআই ফার্ম মিক্সমোডের কৌশল পরিচালক, ইমেলের মাধ্যমে বলেছেন। তিনি যোগ করেছেন যে অনিরাপদ AI ফলাফলের অনুপযুক্ত শ্রেণিবিন্যাস, ডেটা ক্ষতি, অর্থনৈতিক প্রভাব বা শারীরিক ক্ষতির কারণ হতে পারে৷

"প্রথাগত সফ্টওয়্যার দিয়ে, ডেভেলপাররা অ্যালগরিদম কোড আপ করে যা একজন ব্যক্তি কীভাবে একটি দুর্বলতা প্লাগ করতে বা সোর্স কোডটি দেখে একটি বাগ ঠিক করতে হয় তা নির্ধারণ করতে পরীক্ষা করতে পারেন," শিয়া বলেছেন৷"এআই-এর সাথে, যদিও, যুক্তিবিদ্যার একটি বড় অংশ ডেটা থেকে তৈরি হয়, নিউরাল নেটওয়ার্ক এবং এর মতো ডেটা স্ট্রাকচারে এনকোড করা হয়। এর ফলে এমন সিস্টেমগুলি তৈরি হয় যা "ব্ল্যাক বক্স" যা দুর্বলতাগুলি খুঁজে বের করতে এবং ঠিক করতে পরীক্ষা করা যায় না সাধারণ সফ্টওয়্যারের মতো।"

সামনে বিপদ?

যদিও দ্য টার্মিনেটরের মতো চলচ্চিত্রে AI-কে একটি অশুভ শক্তি হিসাবে চিত্রিত করা হয়েছে যা মানবতাকে ধ্বংস করতে চায়, বিশেষজ্ঞরা বলছেন, প্রকৃত বিপদগুলি আরও অপ্রীতিকর হতে পারে। উদাহরণস্বরূপ, রায়না পরামর্শ দেয় যে AI আমাদের বোকা করে তুলতে পারে৷

“এটি মানুষকে তাদের মস্তিস্কের প্রশিক্ষণ এবং দক্ষতা বিকাশ থেকে বঞ্চিত করতে পারে,” তিনি বলেন। “আপনি যদি আপনার বেশিরভাগ সময় স্টার্টআপ অ্যাপ্লিকেশনগুলি পড়ার জন্য ব্যয় না করেন তবে আপনি কীভাবে ভেঞ্চার ক্যাপিটালে বিশেষজ্ঞ হতে পারেন? আরও খারাপ, AI কুখ্যাতভাবে 'ব্ল্যাক বক্স' এবং সামান্য ব্যাখ্যাযোগ্য। কেন একটি নির্দিষ্ট AI সিদ্ধান্ত নেওয়া হয়েছিল তা না জানার অর্থ হল এটি থেকে খুব কমই শিখতে হবে, ঠিক যেমন আপনি সেগওয়েতে স্টেডিয়ামের চারপাশে গাড়ি চালিয়ে একজন বিশেষজ্ঞ রানার হতে পারবেন না।”

এটা বলা মুশকিল যে একটি AI যেটি ভাল ফলাফল দিচ্ছে তা বিপজ্জনক কিনা, কারণ মানুষের পক্ষে কী ঘটছে তা বোঝা অসম্ভব।

সম্ভবত AI থেকে সবচেয়ে তাৎক্ষণিক হুমকি হল এটি পক্ষপাতদুষ্ট ফলাফল প্রদান করতে পারে, লাইল সলোমন, একজন আইনজীবী যিনি AI এর আইনি প্রভাব নিয়ে লিখেছেন, একটি ইমেল সাক্ষাত্কারে বলেছেন৷

"এআই সামাজিক বিভাজন গভীর করতে সাহায্য করতে পারে। এআই মূলত মানুষের কাছ থেকে সংগৃহীত ডেটা থেকে তৈরি করা হয়েছে, " সলোমন যোগ করেছেন। "[কিন্তু] বিশাল ডেটা থাকা সত্ত্বেও, এতে ন্যূনতম উপসেট রয়েছে এবং প্রত্যেকে যা মনে করে তা অন্তর্ভুক্ত করবে না। এইভাবে, অন্তর্নিহিত পক্ষপাত সহ মন্তব্য, পাবলিক বার্তা, পর্যালোচনা ইত্যাদি থেকে সংগৃহীত ডেটা AI বৈষম্য এবং ঘৃণাকে আরও বাড়িয়ে তুলবে।"

প্রস্তাবিত: