تجزیه و تحلیل فرکانس: محققان با استفاده از روش جدید به نقطه Deepfake تصاویر

Deepfakes در حال تبدیل شدن بیشتر معتبر با توجه به تعامل دو کامپیوتر الگوریتم برای ایجاد کامل 'جعلی' تصاویر و و

توسط ABDOOSNEWS در 29 تیر 1399

Deepfakes در حال تبدیل شدن بیشتر معتبر با توجه به تعامل دو کامپیوتر الگوریتم برای ایجاد کامل 'جعلی' تصاویر و ویدئوها و انسان به سادگی قادر به ارزیابی که واقعی است یا نه.

محققان در حال حاضر پیشنهاد یک روش جدید به نام "تجزیه و تحلیل فرکانس' است که می تواند کارآمد افشای جعلی تصاویر ایجاد شده توسط کامپیوتر الگوریتم.

"در عصر خبر جعلی آن می تواند یک مشکل اگر کاربران لازم نیست که توانایی تشخیص تصاویر کامپیوتری از اصل" گفت: استاد Thorsten Holz از صندلی برای سیستم های امنیتی در روهر-دانشگاه بوخوم در آلمان است.

دنبال NewsGram در LinkedIn به دانستن آنچه اتفاق می افتد در سراسر جهان است.

Deepfake تصاویر تولید شده با کمک از کامپیوتر مدل به اصطلاح مولد خصمانه شبکه (GANs).

دو الگوریتم با هم کار کنند در این شبکه ها: اولین الگوریتم ایجاد تصاویر تصادفی بر اساس برخی از داده های ورودی. الگوریتم دوم نیاز به تصمیم می گیرید که آیا این تصویر جعلی است یا نه.

Scientists put machines on job to spot deepfake images, videos
تصویری از یک مرد تولید شده توسط StyleGAN یک مولد خصمانه شبکه (گان). فرد در این عکس وجود ندارد اما این است که تولید شده توسط یک هوش مصنوعی بر اساس یک تجزیه و تحلیل از پرتره. Wikimedia Commons

اگر تصویر است که به جعلی دوم الگوریتم به الگوریتم اول دستور به تجدید نظر در تصویر – تا زمانی که آن را دیگر به رسمیت می شناسد و آن را به عنوان جعلی.

در سال های اخیر این روش کمک کرده است را deepfake تصاویر بیشتر و معتبر تر.

Deepfakes در حال تصویری جعلی است که مردم را به نظر می رسد به گفتن چیزهایی که آنها هرگز مانند محبوب جعلی ویدئوها از Facebook زوکربرگ مدیر عامل و که ما مجلس نانسی پلوسی که ویروسی رفت سال گذشته است.

به تاریخ deepfakes شده اند مورد تجزیه و تحلیل پیچیده با استفاده از روش های آماری.

این بوخوم انتخاب یک رویکرد متفاوت با تبدیل تصاویر به حوزه فرکانس با استفاده از گسسته "کسینوس تبدیل".

تصویر تولید شده را بدین ترتیب بیان به عنوان مجموع مختلفی کسینوس توابع. تصاویر طبیعی به طور عمده از فرکانس پایین توابع.

این تجزیه و تحلیل نشان داده است که تصاویر تولید شده توسط GANs نمایشگاه آثار باستانی در فرکانس بالا برد.

Scientists put machines on job to spot deepfake images, videos
دختر در این تصویر وجود ندارد. به این صورت ساخته شد توسط یک گن برنامه که آثار باستانی در فرکانس بالا برد. Wikimedia Commons

برای مثال یک نمونه ساختار شبکه پدیدار در فرکانس نمایندگی جعلی تصاویر.

همچنین بخوانید: این یک زمان فوق العاده ای برای ما به خودمان آموزش: Dia Mirza

"آزمایش های ما نشان داد که این آثار باستانی نه تنها در رخ گن تصاویر تولید شده. آنها یک مشکل ساختاری از همه عمیق الگوریتم های یادگیری" توضیح Joel فرانک.

"ما فرض کنیم که آثار باستانی شرح داده شده در مطالعه ما همیشه به ما بگویید که آیا این تصویر یک deepfake تصویر ایجاد شده توسط یادگیری ماشین," فرانک گفت که فرکانس تجزیه و تحلیل است بنابراین یک راه موثر برای به طور خودکار تشخیص تصاویر کامپیوتری.

این تیم ارائه کار خود را در مجازی کنفرانس بین المللی یادگیری ماشین (ICML) این هفته است. (IANS)



tinyurlis.gdv.gdv.htu.nuclck.ruulvis.netshrtco.detny.im
آخرین مطالب