توریست مالزی
۲۴ آذر ۱۴۰۴
توریست مالزی – پلیس نسبت به موج جدیدی از کلاهبرداری موسوم به «تماس ساکت» هشدار داده است؛ روشی که در آن کلاهبرداران با استفاده از فناوری هوش مصنوعی، صدای قربانیان را تقلید کرده و اعضای خانواده آنها را برای انتقال پول فریب میدهند.
به گزارش نیواستریتس تایمز، در ویدیویی که بهطور گسترده در شبکههای اجتماعی منتشر شده، بازرس تای یونگ کیونگ، افسر اداره تحقیقات جرایم تجاری منطقه چراس، توضیح داد که قربانیان معمولاً تماسی دریافت میکنند که فعال به نظر میرسد اما پس از پاسخ دادن، هیچ صدایی شنیده نمیشود. به گفته او، زمانی که فرد چند بار «الو» میگوید یا برای چند ثانیه صحبت میکند، کلاهبرداران از دستگاهی برای ضبط نمونه صدا استفاده میکنند. تای گفت تنها سه تا پنج ثانیه صدا برای فناوری هوش مصنوعی کافی است تا صدای یک فرد را بهطور قانعکننده بازسازی کند.
او افزود: «پس از بهدست آوردن نمونه صدا، کلاهبرداران میتوانند پیامها یا تماسهایی با صدای قربانی تولید کنند. سپس ممکن است با یکی از اعضای خانواده، مانند والدین، تماس بگیرند و وانمود کنند که قربانی فوراً به پول نیاز دارد.» در این تماسها کلاهبردار با تقلید لحن و الگوی گفتار قربانی، حس فوریت ایجاد میکند و معمولاً از خانواده میخواهد مبلغی را سریعاً به حساب شخص ثالثی منتقل کنند.
او گفت: «وقتی والدین صدایی را میشنوند که شبیه صدای فرزندشان است، دچار وحشت میشوند. آن را واقعی تصور میکنند و بلافاصله پول میفرستند.» تای تأکید کرد که این روش نشاندهنده تحول در جرایم تجاری است و هوش مصنوعی اکنون برای واقعیتر جلوه دادن کلاهبرداریهای جعل هویت به کار گرفته میشود. او برای کاهش خطر هدف قرار گرفتن، به مردم توصیه کرد هنگام پاسخ دادن به تماسهای ناشناس، ابتدا صحبت نکنند.
به گفته او: «اگر کسی واقعاً قصد صحبت با شما را داشته باشد، خودش را معرفی میکند و هدف تماس را توضیح میدهد. ابتدا سلام نکنید و تا زمانی که تماسگیرنده خود را معرفی نکرده، چیزی نگویید.» تای افزود که بسیاری از مالزیاییها بهطور غریزی تماس را با سلام آغاز میکنند و همین موضوع آنها را در معرض سرقت صدا قرار میدهد. او گفت: «بگذارید تماسگیرنده اول صحبت کند. اگر سکوت کرد یا خود را معرفی نکرد، فوراً تماس را قطع کنید.»
همچنین از عموم مردم خواسته شده است برای راستیآزمایی هرگونه درخواست اضطراری، بهویژه موارد مرتبط با پول، کانالهای ارتباطی جایگزین با اعضای خانواده داشته باشند. تای هشدار داد که کلاهبرداران بهطور فزایندهای به هوش مصنوعی برای دستکاری صداها متکی هستند و به همین دلیل، راستیآزمایی بیش از هر زمان دیگری اهمیت دارد.
به گزارش نیواستریتس تایمز، در ویدیویی که بهطور گسترده در شبکههای اجتماعی منتشر شده، بازرس تای یونگ کیونگ، افسر اداره تحقیقات جرایم تجاری منطقه چراس، توضیح داد که قربانیان معمولاً تماسی دریافت میکنند که فعال به نظر میرسد اما پس از پاسخ دادن، هیچ صدایی شنیده نمیشود. به گفته او، زمانی که فرد چند بار «الو» میگوید یا برای چند ثانیه صحبت میکند، کلاهبرداران از دستگاهی برای ضبط نمونه صدا استفاده میکنند. تای گفت تنها سه تا پنج ثانیه صدا برای فناوری هوش مصنوعی کافی است تا صدای یک فرد را بهطور قانعکننده بازسازی کند.
او افزود: «پس از بهدست آوردن نمونه صدا، کلاهبرداران میتوانند پیامها یا تماسهایی با صدای قربانی تولید کنند. سپس ممکن است با یکی از اعضای خانواده، مانند والدین، تماس بگیرند و وانمود کنند که قربانی فوراً به پول نیاز دارد.» در این تماسها کلاهبردار با تقلید لحن و الگوی گفتار قربانی، حس فوریت ایجاد میکند و معمولاً از خانواده میخواهد مبلغی را سریعاً به حساب شخص ثالثی منتقل کنند.
او گفت: «وقتی والدین صدایی را میشنوند که شبیه صدای فرزندشان است، دچار وحشت میشوند. آن را واقعی تصور میکنند و بلافاصله پول میفرستند.» تای تأکید کرد که این روش نشاندهنده تحول در جرایم تجاری است و هوش مصنوعی اکنون برای واقعیتر جلوه دادن کلاهبرداریهای جعل هویت به کار گرفته میشود. او برای کاهش خطر هدف قرار گرفتن، به مردم توصیه کرد هنگام پاسخ دادن به تماسهای ناشناس، ابتدا صحبت نکنند.
به گفته او: «اگر کسی واقعاً قصد صحبت با شما را داشته باشد، خودش را معرفی میکند و هدف تماس را توضیح میدهد. ابتدا سلام نکنید و تا زمانی که تماسگیرنده خود را معرفی نکرده، چیزی نگویید.» تای افزود که بسیاری از مالزیاییها بهطور غریزی تماس را با سلام آغاز میکنند و همین موضوع آنها را در معرض سرقت صدا قرار میدهد. او گفت: «بگذارید تماسگیرنده اول صحبت کند. اگر سکوت کرد یا خود را معرفی نکرد، فوراً تماس را قطع کنید.»
همچنین از عموم مردم خواسته شده است برای راستیآزمایی هرگونه درخواست اضطراری، بهویژه موارد مرتبط با پول، کانالهای ارتباطی جایگزین با اعضای خانواده داشته باشند. تای هشدار داد که کلاهبرداران بهطور فزایندهای به هوش مصنوعی برای دستکاری صداها متکی هستند و به همین دلیل، راستیآزمایی بیش از هر زمان دیگری اهمیت دارد.

