আপনি ওয়েবে যা দেখেন তা বিশ্বাস করবেন না, বিশেষজ্ঞরা বলুন

সুচিপত্র:

আপনি ওয়েবে যা দেখেন তা বিশ্বাস করবেন না, বিশেষজ্ঞরা বলুন
আপনি ওয়েবে যা দেখেন তা বিশ্বাস করবেন না, বিশেষজ্ঞরা বলুন
Anonim

প্রধান টেকওয়ে

  • নতুন গবেষণা প্রকাশ করে যে লোকেরা এআই-জেনারেট করা ছবিগুলিকে আসল ছবি থেকে আলাদা করতে পারে না৷
  • অংশগ্রহণকারীরা এআই-জেনারেট করা ছবিকে আরও বিশ্বস্ত হিসেবে রেট করেছে।
  • বিশেষজ্ঞরা বিশ্বাস করেন যে লোকেরা ইন্টারনেটে যা দেখে তার উপর বিশ্বাস করা বন্ধ করা উচিত।
Image
Image

ইন্টারনেটের ক্ষেত্রে 'দেখা হচ্ছে বিশ্বাস করা' এই প্রবাদটি আর প্রাসঙ্গিক নয় এবং বিশেষজ্ঞরা বলছেন যে এটি শীঘ্রই ভালো হবে না।

একটি সাম্প্রতিক সমীক্ষায় দেখা গেছে যে কৃত্রিম বুদ্ধিমত্তা (AI) দ্বারা উত্পন্ন মুখের ছবিগুলি কেবলমাত্র অত্যন্ত ফটো-বাস্তববাদী নয়, তারা বাস্তব মুখের চেয়েও বেশি গুণী দেখায়৷

"আমাদের এআই-সংশ্লেষিত মুখগুলির ফটোরিয়েলিজমের মূল্যায়ন ইঙ্গিত দেয় যে সংশ্লেষণ ইঞ্জিনগুলি অদ্ভুত উপত্যকার মধ্য দিয়ে চলে গেছে, এবং এমন মুখগুলি তৈরি করতে সক্ষম যেগুলি আসল মুখগুলির চেয়ে আলাদা এবং আরও বিশ্বস্ত, " গবেষকরা পর্যবেক্ষণ করেছেন৷

যে ব্যক্তির অস্তিত্ব নেই

ল্যাঙ্কাস্টার ইউনিভার্সিটির ডক্টর সোফি নাইটিংগেল এবং ক্যালিফোর্নিয়া ইউনিভার্সিটি, বার্কলে থেকে প্রফেসর হ্যানি ফরিদ গবেষকরা, গভীর নকলের সু-প্রচারিত হুমকি স্বীকার করার পর পরীক্ষাগুলি পরিচালনা করেন, সব ধরনের অনলাইন জালিয়াতি থেকে উদ্দীপক পর্যন্ত। অপপ্রচার প্রচারণা।

"সম্ভবত সবচেয়ে ক্ষতিকর পরিণতি যে, একটি ডিজিটাল বিশ্বে যেখানে কোনও ছবি বা ভিডিও জাল করা যেতে পারে, যে কোনও অসুবিধাজনক বা অনাকাঙ্ক্ষিত রেকর্ডিংয়ের সত্যতা নিয়ে প্রশ্ন তোলা যেতে পারে," গবেষকরা দাবি করেছেন৷

তারা যুক্তি দিয়েছিলেন যে গভীর-নকল সামগ্রী শনাক্ত করার জন্য স্বয়ংক্রিয় কৌশলগুলি বিকাশের ক্ষেত্রে অগ্রগতি হয়েছে, বর্তমান কৌশলগুলি অনলাইনে আপলোড হওয়া নতুন সামগ্রীর ধ্রুবক প্রবাহের সাথে তাল মিলিয়ে চলার জন্য যথেষ্ট দক্ষ এবং সঠিক নয়।এর মানে হল এটি অনলাইন সামগ্রীর ভোক্তাদের উপর নির্ভর করে যে তারা নকল থেকে আসলটি বাছাই করবে।

Jelle Wieringa, KnowBe4-এর একজন নিরাপত্তা সচেতনতা অ্যাডভোকেট, সম্মত হয়েছেন। তিনি লাইফওয়্যারকে ইমেলের মাধ্যমে বলেছিলেন যে বিশেষ প্রযুক্তি ছাড়া প্রকৃত গভীর নকলের বিরুদ্ধে লড়াই করা অত্যন্ত কঠিন। "[প্রমাণ প্রযুক্তি] ব্যয়বহুল এবং রিয়েল-টাইম প্রক্রিয়াগুলিতে প্রয়োগ করা কঠিন হতে পারে, প্রায়শই সত্যের পরেই একটি ডিপফেক সনাক্ত করা যায়।"

এই অনুমানের সাথে, গবেষকরা মানুষের অংশগ্রহণকারীরা বাস্তব মুখ থেকে অত্যাধুনিক সংশ্লেষিত মুখগুলিকে আলাদা করতে পারে কিনা তা নির্ধারণ করতে একাধিক পরীক্ষা-নিরীক্ষা করেছেন। তাদের পরীক্ষায়, তারা দেখেছে যে জাল চিনতে সাহায্য করার প্রশিক্ষণ সত্ত্বেও, নির্ভুলতার হার শুধুমাত্র 59% এ উন্নতি হয়েছে, যা প্রশিক্ষণ ছাড়াই 48% থেকে বেড়েছে।

এটি গবেষকদের বিশ্বাসযোগ্যতার উপলব্ধিগুলি মানুষকে কৃত্রিম চিত্রগুলি সনাক্ত করতে সাহায্য করতে পারে কিনা তা পরীক্ষা করতে পরিচালিত করেছে৷ তৃতীয় একটি সমীক্ষায়, তারা অংশগ্রহণকারীদের মুখের বিশ্বস্ততা রেট করতে বলেছিল, শুধুমাত্র এটি আবিষ্কার করতে যে সিন্থেটিক মুখগুলির গড় রেটিং ছিল 7।আসল মুখের জন্য গড় রেটিং থেকে 7% বেশি বিশ্বস্ত। সংখ্যাটি খুব বেশি মনে নাও হতে পারে, তবে গবেষকরা দাবি করেছেন যে এটি পরিসংখ্যানগতভাবে তাৎপর্যপূর্ণ।

গভীর জাল

গভীর নকলগুলি ইতিমধ্যেই একটি প্রধান উদ্বেগের বিষয় ছিল, এবং এখন এই গবেষণার মাধ্যমে জল আরও ঘোলা হয়েছে, যা পরামর্শ দেয় যে এই ধরনের উচ্চ-মানের নকল চিত্র অনলাইন স্ক্যামগুলিতে সম্পূর্ণ নতুন মাত্রা যোগ করতে পারে, উদাহরণস্বরূপ, আরও তৈরিতে সহায়তা করে অনলাইন জাল প্রোফাইল বিশ্বাস করা।

"একটি জিনিস যা সাইবার নিরাপত্তাকে চালিত করে তা হল প্রযুক্তি, প্রক্রিয়া এবং তাদের নিরাপদ রাখার চেষ্টা করা লোকেদের প্রতি মানুষের আস্থা," শেয়ার করেছেন উইরিঙ্গা৷ "গভীর নকল, বিশেষ করে যখন তারা ফটোরিয়ালিস্টিক হয়ে ওঠে, তখন এই বিশ্বাসকে দুর্বল করে দেয় এবং তাই, সাইবার নিরাপত্তা গ্রহণ এবং গ্রহণযোগ্যতা। এটি লোকেদের তারা যা উপলব্ধি করে তার প্রতি অবিশ্বাস করতে পারে।"

Image
Image

পিক্সেল প্রাইভেসির কনজিউমার প্রাইভেসি চ্যাম্পিয়ন ক্রিস হাউক সম্মত হয়েছেন। একটি সংক্ষিপ্ত ইমেল বিনিময়ে, তিনি লাইফওয়্যারকে বলেছিলেন যে ফটোরিয়ালিস্টিক গভীর নকল অনলাইনে "বিপর্যয়" ঘটাতে পারে, বিশেষ করে এই দিনগুলিতে যখন ফটো আইডি প্রযুক্তি ব্যবহার করে সব ধরণের অ্যাকাউন্ট অ্যাক্সেস করা যায়৷

সংশোধনমূলক পদক্ষেপ

ধন্যবাদ, গ্রেগ কুহন, IoT-এর পরিচালক, Prosegur Security, বলেছেন যে এমন কিছু প্রক্রিয়া আছে যা এই ধরনের প্রতারণামূলক প্রমাণীকরণ এড়াতে পারে। তিনি লাইফওয়্যারকে ইমেলের মাধ্যমে বলেছিলেন যে AI-ভিত্তিক শংসাপত্র সিস্টেমগুলি একটি তালিকার সাথে একজন যাচাইকৃত ব্যক্তির সাথে মেলে, তবে অনেকেরই "জীবন্ততা" পরীক্ষা করার জন্য সুরক্ষা ব্যবস্থা রয়েছে।

"এই ধরনের সিস্টেমের জন্য একজন ব্যবহারকারীকে কিছু কাজ করার জন্য প্রয়োজন এবং গাইড করতে পারে যেমন হাসি বা আপনার মাথা বাম দিকে, তারপর ডান দিকে ঘুরিয়ে দেওয়া। এগুলি এমন জিনিস যা স্ট্যাটিকভাবে তৈরি মুখগুলি সম্পাদন করতে পারে না, " শেয়ার করেছেন কুহন৷

গবেষকরা সিন্থেটিক ছবি থেকে জনসাধারণকে রক্ষা করার জন্য তাদের তৈরি এবং বিতরণ নিয়ন্ত্রণ করার জন্য নির্দেশিকা প্রস্তাব করেছেন। প্রারম্ভিকদের জন্য, তারা ইমেজ- এবং ভিডিও-সংশ্লেষণ নেটওয়ার্কগুলিতে গভীরভাবে অন্তর্নিহিত ওয়াটারমার্কগুলিকে অন্তর্ভুক্ত করার পরামর্শ দেয় যাতে সমস্ত সিন্থেটিক মিডিয়া নির্ভরযোগ্যভাবে সনাক্ত করা যায়।

তখন পর্যন্ত, পল বিশফ, গোপনীয়তার আইনজীবী এবং Comparitech-এর infosec গবেষণা সম্পাদক, বলেছেন মানুষ তাদের নিজস্ব।"মানুষকে অনলাইনে মুখের উপর আস্থা না রাখতে শিখতে হবে, ঠিক যেমন আমরা সবাই (আশা করি) আমাদের ইমেলে প্রদর্শিত নামগুলিকে বিশ্বাস না করতে শিখেছি," বিশফ ইমেলের মাধ্যমে লাইফওয়্যারকে বলেছেন৷

প্রস্তাবিত: