অ্যাপল শিশু নির্যাতন বিরোধী প্রযুক্তি বিলম্বিত করে

অ্যাপল শিশু নির্যাতন বিরোধী প্রযুক্তি বিলম্বিত করে
অ্যাপল শিশু নির্যাতন বিরোধী প্রযুক্তি বিলম্বিত করে
Anonim

সমালোচক এবং ব্যবহারকারীদের কাছ থেকে প্রচুর পুশব্যাকের পরে, অ্যাপল তার শিশু নির্যাতন বিরোধী পদক্ষেপগুলি বিলম্বিত করছে৷

আগস্টে, প্রযুক্তি জায়ান্টটি প্রাথমিকভাবে একটি নতুন নীতি ঘোষণা করেছে যা আইক্লাউড এবং বার্তাগুলিতে সম্ভাব্য শিশু নির্যাতনের চিত্রগুলি চিহ্নিত করতে প্রযুক্তি ব্যবহার করে, কিন্তু উদ্বেগগুলি এটি অনুসরণ করে৷ বিশেষজ্ঞরা সতর্ক করেছেন যে অ্যাপল ব্যবহারকারীর গোপনীয়তার প্রতিশ্রুতি দিলেও, প্রযুক্তিটি শেষ পর্যন্ত সমস্ত অ্যাপল ব্যবহারকারীদের ঝুঁকির মধ্যে ফেলবে৷

Image
Image

শুক্রবার, অ্যাপল বলেছে যে উন্নতি করতে এবং ব্যবহারকারীর গোপনীয়তা সম্পূর্ণরূপে নিশ্চিত করতে এটি প্রযুক্তির রোলআউট সম্পূর্ণভাবে বিলম্বিত করবে৷

"গ্রাহক, অ্যাডভোকেসি গ্রুপ, গবেষক এবং অন্যান্যদের মতামতের ভিত্তিতে, আমরা সিদ্ধান্ত নিয়েছি যে এই গুরুত্বপূর্ণ শিশু সুরক্ষা বৈশিষ্ট্যগুলি প্রকাশ করার আগে ইনপুট সংগ্রহ করতে এবং উন্নতি করার জন্য আগামী মাসগুলিতে অতিরিক্ত সময় নেব," অ্যাপল একটি বার্তায় বলেছে। তার ওয়েবসাইটে আপডেট বিবৃতি.

শিশু যৌন নিপীড়নের উপাদান সনাক্তকরণ প্রযুক্তিটি এই বছরের শেষের দিকে iOS 15 রোলআউটে উপলব্ধ হওয়ার কথা ছিল, তবে বৈশিষ্ট্যটি কখন, বা কিনা তা এখন স্পষ্ট নয়৷

নতুন প্রযুক্তি দুটি উপায়ে কাজ করবে: প্রথমত, iCloud এ ব্যাক আপ করার আগে একটি ছবি স্ক্যান করে। যদি সেই চিত্রটি CSAM-এর মানদণ্ডের সাথে মেলে, অ্যাপল সেই ডেটা পাবে। প্রযুক্তির অন্য অংশটি শিশুরা বার্তার মাধ্যমে প্রাপ্ত যৌনতাপূর্ণ ছবিগুলি সনাক্ত করতে এবং অস্পষ্ট করতে মেশিন লার্নিং ব্যবহার করে৷

তবে, নতুন নীতি ঘোষণার পর, গোপনীয়তার উকিল এবং গোষ্ঠীগুলি বলেছিল যে অ্যাপল মূলত একটি পিছনের দরজা খুলছে যা খারাপ অভিনেতারা অপব্যবহার করতে পারে৷

এই উদ্বেগগুলি মোকাবেলা করার জন্য, Apple CSAM প্রযুক্তি ঘোষণা করার পরপরই একটি FAQ পৃষ্ঠা প্রকাশ করেছে৷ অ্যাপল ব্যাখ্যা করেছে যে প্রযুক্তিটি কোনও ডিভাইসে সংরক্ষিত সমস্ত ফটো স্ক্যান করবে না, বার্তাগুলিতে এন্ড-টু-এন্ড এনক্রিপশন ভাঙ্গবে না এবং আইন প্রয়োগকারী সংস্থার কাছে নিরপরাধ লোকদের মিথ্যাভাবে পতাকাঙ্কিত করবে না৷

প্রস্তাবিত: