حمایت گوگل، سونی و اوکتا از سرمایه گذاری روی آشکار ساز دیپ فیک ها

علمیفناوری/تکنولوژیمنتخب28 آذر, 1404834 بازدید

این فناوری تولید دیپ‌فیک‌های قانع‌کننده را برای مجرمان آسان‌تر کرده و درسال ۲۰۲۵ به بیش از ۱.۵۶ میلیارد دلار خسارت ناشی ازکلاهبرداری منجر شده است.
تحلیلگران بر این باورند که هوش مصنوعی مولد می‌تواند باعث بروز ۴۰ میلیارد دلار خسارت در زمینه کلاهبرداری در ایالات متحده تا سال ۲۰۲۷ شود.
حوادث اخیر نشان می‌دهد که تهدیدات به سرعت در حال تحول هستند.
در سنگاپور، ۱۳ نفر به طور مشترک بیش از ۳۶۰,۰۰۰ دلار سنگاپور را از دست دادند،
زیرا کلاهبرداران خود را به عنوان یک ارائه‌دهنده خدمات مخابراتی و مقام پولی سنگاپور معرفی کردند.
این حمله‌کنندگان از تکنیک‌های مختلفی مانند جعل شناسه تماس، دیپ‌فیک صدا و مهندسی اجتماعی استفاده کردند.
لذا احساس فوریت ایجاد کردند و از اعتماد عمومی به برندهای دولتی و مخابراتی سو استفاده کردند.
Resemble AI  ابزارهای تأیید آنی را توسعه می‌دهد که به شرکت‌ها درتشخیص محتوای صوتی، تصویری، متنی و دیپ‌فیک‌های تولید شده توسط هوش مصنوعی کمک می‌کند.
این شرکت قصد دارد از سرمایه‌گذاری جدید خود برای گسترش دسترسی جهانی به پلتفرم تشخیص دیپ‌فیک هوش مصنوعی خود استفاده کند.
نتایج عمومی شاخص‌ها در Hugging Face نشان می‌دهد که این مدل در بین بهترین عملکردها در زمینه تشخیص دیپ‌فیک‌های تصویری و صوتی قرار دارد.
روش جدید نرخ خطای متوسط کمتری نسبت به مدل‌های رقیب دارد.
ذینفعان صنعت معتقدند که پیشرفت سریع هوش مصنوعی تولیدی نحوه تفکر شرکت‌ها درباره اعتماد به محتوا و سیستم‌های هویتی را تغییر می‌دهد.
نمایندگان Google’s AI Futures Fund، سونی و اوکتا اشاره کردند، سازمان‌ها به سمت لایه‌های تأیید، حرکت می‌کنندکه می‌تواند به حفظ اعتماد درفرآیندهای احرازهویت کمک کند.
در کنار اعلام سرمایه‌گذاری، Resemble AI  چشم‌انداز خود را درباره چگونگی تکامل خطرات مرتبط با دیپ‌فیک در سال ۲۰۲۶ منتشر کرد.

این شرکت انتظار دارد چندین تغییر را که می‌تواند بر برنامه‌ریزی سازمان‌ها تأثیر بگذارد، پیش‌بینی کند:
۱- تأیید دیپ‌فیک ممکن است استاندارد شود.
با توجه به حوادث involving مقامات دولتی، پیش‌بینی می‌شود که تشخیص آنی دیپ‌فیک ممکن است در نهایت برای کنفرانس‌های ویدیویی رسمی الزامی شود.
۲- آمادگی سازمانی ممکن است تعیین‌کننده موقعیت رقابتی باشد.
بامعرفی قوانین هوش مصنوعی درمناطق مختلف، شرکت‌هایی که فرآیندهای آموزش، حاکمیت وانطباق را زودتر ادغام کنند، ممکن است بهتر برای تقاضاهای عملیاتی ونظارتی آماده شوند.
۳- هویت به عنوان محور اصلی امنیت هوش مصنوعی.
باتوجه به اینکه بسیاری از حملات مرتبط با هوش مصنوعی به جعل هویت وابسته‌اند، سازمان‌ها ممکن است برروی مدل‌های امنیتی متمرکز برهویت تأکیدبیشتری داشته باشند.
۴- افزایش هزینه‌های بیمه سایبری.
 افزایش تعداد حوادث دیپ‌فیک شرکتی ممکن است باعث شود که بیمه‌گذاران سیاست‌های خود را مورد بازنگری قرار دهند.
این سرمایه‌گذاری ضرورت فزاینده‌ای را برای سازمان‌ها به منظور درک چگونگی تغییر ریسک‌های ناشی از هوش مصنوعی مولد نشان می‌دهد.
سازمان‌ها در تمام بخش‌ها در حال ارزیابی این موضوع هستند که:
چگونه تأیید، حفاظت از هویت و آمادگی در برابر حوادث می‌تواند در استراتژی‌های امنیت و انطباق گسترده‌تر آنها گنجانده شود.
پلتفرم تشخیص دیپ‌فیک هوش مصنوعی، برای جلوگیری از چالش ها و خطاهای هوش مصنوعی.
منبع: یک وبلاگ تخصصی است.
ما را دنبال کنید
  • فیس بوک38.5K
  • شبکه اجتماعی ایکس32.1K
  • اینستاگرام18.9K
  • واتساپ15.3K
  • تلگرام56.2K
دسته بندی ها

تبلیغات

بارگذاری مقاله بعدی...
خبر فوری
تازه از تنور جامعه
در حال بارگذاری

ورود در 3 ثانیه...

ثبت‌نام در 3 ثانیه...

سبد خرید
به روزرسانی سبد خرید

فروشگاهسبد خرید شما در حال حاضر خالی است. می‌توانید به فروشگاه ما مراجعه کنید و خرید را شروع کنید.