|
کد‌خبر: 335501

هوش مصنوعی | معایب هوش مصنوعی

افزایش ۵۰درصدی جرائم مالی با هوش مصنوعی | وقتی صدای عزیزانت هم قابل اعتماد نیست

فناوری دیپ‌فیک که روزی ابزار سرگرمی بود، حالا به کابوس امنیتی بدل شده است. کلاهبرداران با تقلید چهره و صدای افراد، از خانواده‌ها پول می‌گیرند.

فناوری دیپ‌فیک که روزی ابزار سرگرمی بود، حالا به کابوس امنیتی بدل شده است. کلاهبرداران با تقلید چهره و صدای افراد، از خانواده‌ها پول می‌گیرند.

«چندساعت پیش تماسی با خاله  ام گرفته شد و گفتند: پسر شما تصادف کرده، حالش وخیم است، او را به بیمارستان امام حسین بردیم و باید سریع پول واریز کنید تا عمل اش کنیم. بعد گوشی را دادند به پسرش، صدایی دقیقاً مثل خودش! همون لحن، همون تکیه کلام ها.»؛ 

این نوع از کلاهبرداری به کمک «دیپ فیک» انجام می شود؛ نوعی رسانه مصنوعی شامل تصویر، ویدئو یا فایل صوتی که در آن چهره یا صدای فردی با استفاده از هوش مصنوعی تغییر داده یا جایگزین می شود. این کلاهبرداری، یکی از میلیون ها مورد کلاهبرداری با هوش مصنوعی در سال 2025 است.

در سال 2025، بیش از ۵۰ درصد از تقلب های شناسایی شده در پرداخت ها با نوعی از هوش مصنوعی یا دیپ  فیک انجام شده اند و حجم بازار جهانی فناوری ضد فریب از حدود ۱۳ میلیارد دلار در ۲۰۲۴ به 5/15 میلیارد دلار رسیده است.

علیرضا طباطبایی، وکیل دادگستری در حوزه سایبری می گوید، موارد کلاهبرداری با استفاده از هوش مصنوعی نیز با استفاده از قانون جرائم رایانه بررسی می شود: «قانون مرتبط با این جرائم بسته به نوع نتیجه ای است که حاصل می شود؛ اگر نتیجه آن برداشت وجه از حساب کسی باشد، علاوه بر جعل رایانه ای، قانون مربوط به کلاهبرداری رایانه ای هم استفاده می شود. 

راه‌اندازی «گروکی‌پدیا» توسط ایلان ماسک | دانشنامه‌ای هوش مصنوعی با گرایش راست‌گرایانه

اگر برداشت وجه انجام نشود و صرفاً شخص به جعل اقدام کند، این اقدام جعل رایانه ای محسوب می شود. اگر فرد تصویر کسی را به صورت تقلبی بسازد و آن را منتشر کند، علاوه بر جعل رایانه ای، می تواند مشمول قانون مربوط به تصاویر مستهجن و مبتذل هم باشد. درنهایت نیازی به قانون جدیدی نیست و قانون جرائم رایانه ای آن را پوشش می دهد.»

source: هم میهن