في عام 2026، تطورت أساليب الاحتيال المالي لتتجاوز مجرد الرسائل النصية المزيفة. أصبح المحتالون يستخدمون تقنيات التزييف العميق (Deepfake) لتقليد أصوات مديري البنوك، أو حتى وجوه أفراد العائلة في مكالمات الفيديو، لإقناع الضحايا بتحويل مبالغ ضخمة فوراً.
عبر منصتكم "CoinLogic"، نكشف لكم الستار عن هذه التقنيات ونقدم لكم الدليل العملي لحماية أنفسكم وأموالكم من الجيل الجديد من الاحتيال الرقمي.
1. ما هو الاحتيال عبر التزييف العميق (AI Phishing)؟
هو استخدام الذكاء الاصطناعي لإنشاء محتوى (صوتي أو مرئي) يبدو حقيقياً بنسبة 99%. قد تتلقى اتصالاً من "رئيسك في العمل" يطلب منك سداد فاتورة عاجلة، أو من "صديق" يدعي أنه في مأزق، بينما في الحقيقة أنت تتحدث مع خوارزمية ذكية.
2. علامات كشف التزييف في مكالمات الفيديو
رغم دقة الـ AI في 2026، لا تزال هناك ثغرات يمكنك ملاحظتها:
- حركة العين والرمش: غالباً ما تفشل النماذج المزيفة في محاكاة حركة الرمش الطبيعية أو انعكاس الضوء داخل العين.
- منطقة الفم والرقبة: دقق في تزامن الصوت مع حركة الشفاه؛ التزييف العميق يظهر بعض "التشويش" عند نطق الحروف الساكنة.
- الإضاءة غير المتناسقة: إذا كان الضوء على الوجه يختلف عن الضوء في الخلفية، فهذا مؤشر قوي على وجود تلاعب.
3. كيف تتأكد من هوية المتصل؟ (استراتيجية CoinLogic)
إذا شعرت بالشك أثناء مكالمة مالية، اتبع هذه الخطوات المنطقية:
- كلمة السر العائلية: اتفق مع أهلك وشركائك على "كلمة سر" شفهية لا يعرفها سواكم لاستخدامها عند طلب تحويلات طارئة.
- تغيير القناة: اقطع الاتصال فوراً واتصل بالشخص عبر وسيلة أخرى (مثلاً اتصل هاتفياً إذا كانت المكالمة عبر واتساب).
- السؤال العشوائي: اسأل المتصل سؤالاً عن ذكرى قديمة أو تفصيل لا يعرفه الذكاء الاصطناعي الذي يجمع بياناتك من الإنترنت.
📌 قاعدة الأمان الذهبية:
البنوك والمؤسسات المالية الرسمية لن تطلب منك أبداً تحويل أموال أو تقديم كلمات مرور عبر مكالمة فيديو أو تطبيق دردشة. أي طلب "عاجل" هو بالضرورة محاولة احتيال حتى يثبت العكس.
| نوع الاحتيال | التقنية المستخدمة | طريقة الحماية |
|---|---|---|
| الاحتيال الصوتي | تقليد الصوت بالـ AI | معاودة الاتصال برقم رسمي |
| انتحال الشخصية فيديو | Deepfake Video | التدقيق في حركة العين والظلال |
تحرير: وحدة مكافحة الجرائم الرقمية - CoinLogic
