AI অবশেষে ঘৃণাত্মক বক্তৃতা বন্ধ করতে সাহায্য করতে পারে৷

সুচিপত্র:

AI অবশেষে ঘৃণাত্মক বক্তৃতা বন্ধ করতে সাহায্য করতে পারে৷
AI অবশেষে ঘৃণাত্মক বক্তৃতা বন্ধ করতে সাহায্য করতে পারে৷
Anonim

প্রধান টেকওয়ে

  • একটি নতুন সফ্টওয়্যার টুল AI ঘৃণাত্মক বক্তব্যের জন্য ইন্টারনেট মন্তব্যগুলি নিরীক্ষণ করতে দেয়৷
  • মানুষের সামর্থ্যকে ছাড়িয়ে যায় এমন বিপুল পরিমাণ উপাদানের কারণে ইন্টারনেট কন্টেন্ট পরিমিত করার জন্য AI প্রয়োজন।
  • কিন্তু কিছু বিশেষজ্ঞ বলছেন যে বক্তৃতা এআই পর্যবেক্ষণ গোপনীয়তার উদ্বেগ বাড়ায়।
Image
Image

অনলাইনে বিদ্বেষপূর্ণ বক্তব্য বাড়ার সাথে সাথে একটি কোম্পানি বলেছে যে এটির এমন একটি সমাধান থাকতে পারে যা মানব মডারেটরদের উপর নির্ভর করে না।

স্পেকট্রাম ল্যাব নামে একটি স্টার্টআপ প্ল্যাটফর্ম প্রদানকারীদের রিয়েল-টাইমে বিষাক্ত এক্সচেঞ্জ সনাক্ত করতে এবং বন্ধ করতে কৃত্রিম বুদ্ধিমত্তা প্রযুক্তি প্রদান করে। তবে বিশেষজ্ঞরা বলছেন যে এআই পর্যবেক্ষণ গোপনীয়তার সমস্যাও উত্থাপন করে৷

"এআই পর্যবেক্ষণের জন্য প্রায়শই সময়ের সাথে প্যাটার্নগুলি দেখার প্রয়োজন হয়, যা ডেটা ধরে রাখার প্রয়োজন হয়," ডেভিড মুডি, নিরাপত্তা এবং গোপনীয়তা সম্মতি মূল্যায়ন সংস্থা শেলম্যানের একজন সিনিয়র সহযোগী, লাইফওয়্যারকে একটি ইমেল সাক্ষাত্কারে বলেছেন। "এই ডেটাতে এমন ডেটা অন্তর্ভুক্ত থাকতে পারে যা আইন গোপনীয়তা ডেটা (ব্যক্তিগতভাবে শনাক্তযোগ্য তথ্য বা PII) হিসাবে ফ্ল্যাগ করেছে।"

আরো ঘৃণাত্মক বক্তব্য

স্পেকট্রাম ল্যাবগুলি ঘৃণামূলক বক্তব্যের বহু পুরনো সমস্যার উচ্চ প্রযুক্তির সমাধানের প্রতিশ্রুতি দেয়৷

"গড়ে, আমরা প্ল্যাটফর্মগুলিকে কন্টেন্ট সংযম প্রচেষ্টা 50% কমাতে এবং বিষাক্ত আচরণ সনাক্তকরণ 10x বৃদ্ধি করতে সহায়তা করি," কোম্পানিটি তার ওয়েবসাইটে দাবি করেছে৷

স্পেকট্রাম বলেছে যে এটি 40 টিরও বেশি আচরণ সনাক্তকরণ মডেল তৈরি করতে নির্দিষ্ট ক্ষতিকারক আচরণে দক্ষতা সহ গবেষণা প্রতিষ্ঠানের সাথে কাজ করেছে। কোম্পানির গার্ডিয়ান কন্টেন্ট মডারেশন প্ল্যাটফর্মটি ডেটা বিজ্ঞানী এবং মডারেটরদের একটি দল দ্বারা "বিষাক্ততা থেকে সম্প্রদায়কে রক্ষা করতে সহায়তা করার জন্য তৈরি করা হয়েছিল।"

ঘৃণাত্মক বক্তব্যের বিরুদ্ধে লড়াই করার উপায়গুলির একটি ক্রমবর্ধমান প্রয়োজনীয়তা রয়েছে কারণ একজন মানুষের পক্ষে অনলাইন ট্র্যাফিকের প্রতিটি অংশ নিরীক্ষণ করা অসম্ভব, ডিলান ফক্স, অ্যাসেম্বলিএআই-এর সিইও, একটি স্টার্টআপ যা বক্তৃতা স্বীকৃতি প্রদান করে এবং ঘৃণা নিরীক্ষণের সাথে জড়িত গ্রাহকদের বক্তৃতা, একটি ইমেল সাক্ষাত্কারে লাইফওয়্যারকে বলেছিলেন৷

"শুধু টুইটারেই প্রতিদিন প্রায় 500 মিলিয়ন টুইট হয়," তিনি যোগ করেছেন। "এমনকি যদি একজন ব্যক্তি প্রতি 10 সেকেন্ডে একটি টুইট চেক করতে পারে তবে টুইটারকে এটি করার জন্য 60 হাজার লোককে নিয়োগ করতে হবে। পরিবর্তে, আমরা প্রক্রিয়াটি স্বয়ংক্রিয় করতে AI এর মতো স্মার্ট টুল ব্যবহার করি।"

একজন মানুষের বিপরীতে, এআই 24/7 কাজ করতে পারে এবং সম্ভাব্যভাবে আরও ন্যায়সঙ্গত হতে পারে কারণ এটি কোনও ব্যক্তিগত বিশ্বাসের হস্তক্ষেপ ছাড়াই সমস্ত ব্যবহারকারীর জন্য তার নিয়মগুলিকে সমানভাবে প্রয়োগ করার জন্য ডিজাইন করা হয়েছে, ফক্স বলেছেন। যারা কন্টেন্ট নিরীক্ষণ এবং পরিমিত হয় তাদের জন্য একটি খরচ আছে।

"তারা সহিংসতা, ঘৃণা, এবং জঘন্য কাজের সংস্পর্শে আসতে পারে, যা একজন ব্যক্তির মানসিক স্বাস্থ্যের জন্য ক্ষতিকর হতে পারে," তিনি বলেন।

স্পেকট্রাম একমাত্র সংস্থা নয় যে অনলাইন ঘৃণামূলক বক্তব্য স্বয়ংক্রিয়ভাবে সনাক্ত করতে চায়৷ উদাহরণস্বরূপ, সেন্টার মালয়েশিয়া সম্প্রতি মালয়েশিয়ার নেটিজেনদের মধ্যে ঘৃণামূলক বক্তব্য খুঁজে বের করার জন্য ডিজাইন করা একটি অনলাইন ট্র্যাকার চালু করেছে। তারা যে সফ্টওয়্যারটি তৈরি করেছে- ট্র্যাকার বেন্সি- অনলাইনে, বিশেষ করে টুইটারে ঘৃণামূলক বক্তব্য সনাক্ত করতে মেশিন লার্নিং ব্যবহার করে৷

চ্যালেঞ্জ হল কীভাবে এমন জায়গা তৈরি করা যায় যেখানে লোকেরা একে অপরের সাথে গঠনমূলকভাবে জড়িত হতে পারে।

গোপনীয়তা সংক্রান্ত উদ্বেগ

যদিও স্পেকট্রামের মতো প্রযুক্তিগত সমাধানগুলি অনলাইন ঘৃণাত্মক বক্তব্যের বিরুদ্ধে লড়াই করতে পারে, তারা পুলিশিং কম্পিউটারের কতটা কাজ করা উচিত সে সম্পর্কেও প্রশ্ন তোলে৷

সান্তা ক্লারা বিশ্ববিদ্যালয়ের ফলিত নীতিশাস্ত্রের জন্য মার্ককুলা সেন্টারের ইন্টারনেট নীতিশাস্ত্রের পরিচালক ইরিনা রাইকু, লাইফওয়্যারকে একটি ইমেলে জানিয়েছেন সাক্ষাৎকার।

"'বাকস্বাধীনতার' নামে হয়রানির অনুমতি দেওয়া এই ধরনের বক্তৃতার লক্ষ্যগুলিকে (বিশেষ করে যখন নির্দিষ্ট ব্যক্তিদের লক্ষ্য করে) কথা বলা বন্ধ করতে-বিভিন্ন কথোপকথন এবং প্ল্যাটফর্ম সম্পূর্ণরূপে পরিত্যাগ করতে পরিচালিত করেছে," রাইকু বলেছিলেন।"চ্যালেঞ্জ হল কীভাবে এমন জায়গা তৈরি করা যায় যেখানে লোকেরা একে অপরের সাথে গঠনমূলকভাবে জড়িত হতে পারে।"

এআই স্পিচ মনিটরিং গোপনীয়তার সমস্যা উত্থাপন করা উচিত নয় যদি কোম্পানিগুলি পর্যবেক্ষণের সময় সর্বজনীনভাবে উপলব্ধ তথ্য ব্যবহার করে, ফক্স বলেছে। যাইহোক, সমস্যাযুক্ত ব্যবহারকারীদের পূর্ব-শনাক্ত করার জন্য ব্যবহারকারীরা কীভাবে অন্যান্য প্ল্যাটফর্মে ইন্টারঅ্যাক্ট করে সে সম্পর্কে কোম্পানি বিশদ ক্রয় করলে, এটি গোপনীয়তার উদ্বেগ বাড়াতে পারে।

"অ্যাপ্লিকেশনের উপর নির্ভর করে এটি অবশ্যই কিছুটা ধূসর এলাকা হতে পারে," তিনি যোগ করেছেন।

Image
Image

স্পেকট্রাম ল্যাবসের সিইও জাস্টিন ডেভিস লাইফওয়্যারকে একটি ইমেলে বলেছেন যে কোম্পানির প্রযুক্তি এক সেকেন্ডের ভগ্নাংশের মধ্যে 2 থেকে 5 হাজার সারি ডেটা পর্যালোচনা করতে পারে। "সবচেয়ে গুরুত্বপূর্ণ, প্রযুক্তি মানব মডারেটরদের সংস্পর্শে আসা বিষাক্ত সামগ্রীর পরিমাণ কমাতে পারে," তিনি বলেছিলেন।

আমরা অনলাইনে মানুষের বক্তৃতা এবং পাঠ্য নিরীক্ষণ AI-তে একটি বিপ্লবের দ্বারপ্রান্তে থাকতে পারি। ভবিষ্যত অগ্রগতিতে আরও ভাল স্বাধীন এবং স্বায়ত্তশাসিত নিরীক্ষণের ক্ষমতা অন্তর্ভুক্ত রয়েছে যাতে পূর্বে অজানা বিদ্বেষপূর্ণ বক্তব্যের ধরন বা অন্য কোনো সেন্সরযোগ্য নিদর্শন যা বিকশিত হবে শনাক্ত করা যায়, মুডি বলেন।

AI এছাড়াও শীঘ্রই নির্দিষ্ট বক্তৃতা প্যাটার্নের নিদর্শনগুলি সনাক্ত করতে সক্ষম হবে এবং সংবাদ বিশ্লেষণ, পাবলিক ফাইলিং, ট্রাফিক প্যাটার্ন বিশ্লেষণ, শারীরিক পর্যবেক্ষণ এবং অন্যান্য অনেক বিকল্পের মাধ্যমে উত্স এবং তাদের অন্যান্য ক্রিয়াকলাপগুলি সম্পর্কিত করতে সক্ষম হবে৷

কিন্তু কিছু বিশেষজ্ঞ বলেছেন যে ঘৃণাত্মক বক্তব্য নিরীক্ষণের জন্য মানুষের সর্বদা কম্পিউটারের সাথে কাজ করতে হবে৷

"একা এআই কাজ করবে না," রাইকু বললেন। "এটিকে একটি অপূর্ণ সরঞ্জাম হিসাবে স্বীকৃত করতে হবে যা অন্যান্য প্রতিক্রিয়াগুলির সাথে একত্রে ব্যবহার করতে হবে।"

সংশোধন 1/25/2022: একটি পোস্ট-পাবলিকেশন ইমেল প্রতিফলিত করার জন্য শেষ থেকে 5 তম অনুচ্ছেদে জাস্টিন ডেভিস থেকে উদ্ধৃতি যোগ করা হয়েছে।

প্রস্তাবিত: