هل يصبح الذكاء الاصطناعي "السيد الأعلى" التالي للاحتيال عبر الهاتف على مستوى العالم؟

** الأصل: جيف كوفلين، إميلي ماسون **

المصدر: فوربس

العنوان الأصلي: "كيف يعمل الذكاء الاصطناعي على تغذية الاحتيال المالي وجعله غير مرئي"

من "The Hunt" و"All or Nothing" إلى "Parrot Killing" الذي صدر الأسبوع الماضي، توفر الأفلام المتعلقة بالاحتيال وسيلة دعاية فعالة للسيطرة على الجريمة في الصين. ومع ذلك، مع تعميم جولة جديدة من تكنولوجيا الذكاء الاصطناعي، فإن التحديات المستقبلية ستواجه تحديات مستقبلية. ربما أكثر خطورة. وبالنسبة للولايات المتحدة على الجانب الآخر من المحيط، فإن مكافحة الاحتيال قد تصبح إجماعاً جديداً آخر بينها وبين الصين في عصر يتسم بعدم اليقين. في عام 2020 وحده، تظهر استطلاعات الرأي الأميركية أن ما يصل إلى 56 مليون شخص في الولايات المتحدة تعرضوا للاحتيال عن طريق المكالمات الهاتفية، وهو ما يمثل حوالي سدس سكان الولايات المتحدة، ومن بينهم 17% من الأميركيين تعرضوا للاحتيال أكثر من مرة.

وفي مجال الاحتيال في مجال الاتصالات، تمثل الهند بالنسبة للولايات المتحدة ما تمثله ميانمار بالنسبة للصين. ولكن من الواضح أن الهند تتمتع بأرضية أكثر لتنمية صناعة الاحتيال من ميانمار. فمن ناحية، تتمتع اللغة الإنجليزية، باعتبارها لغة رسمية، بمعدل انتشار مرتفع نسبيا في الهند، كما تتمتع الهند أيضا "بميزة طبيعية" من حيث المواهب؛ ومن ناحية أخرى، أصبحت الهند منصة خارجية للشركات الكبرى المتعددة الجنسيات. منذ عام 2000. يقوم المتعاقدون الخارجيون لخدمة العملاء عبر الهاتف بإنشاء عمليات احتيال هاتفية جديدة بنفس اللهجة ولكن بمحتوى مختلف. ولكن مع جولة جديدة من تكنولوجيا الذكاء الاصطناعي، قد يتم استبدال "عرش" الهند في مجال الاحتيال عبر الهاتف.

من الرسائل النصية الأنيقة إلى استنساخ الأصوات وتبديل الوجوه في مقاطع الفيديو، يمنح الذكاء الاصطناعي التوليدي المحتالين سلاحًا جديدًا قويًا.

"يهدف هذا الخطاب/الخطاب إلى إبلاغك بأن Chase لديه استرداد بقيمة 2000 دولار أمريكي معلق. لتسريع العملية وضمان استلام المبلغ المسترد في أسرع وقت ممكن، يرجى اتباع هذه التعليمات: يرجى الاتصال بخدمة عملاء Chase على الرقم 1-800-953-XXXX تحقق من حالة استرداد أموالك. يرجى التأكد من أن معلومات حسابك وأي معلومات ذات صلة جاهزة..."

إذا كنت قد تعاملت مع Chase وتلقيت هذه الرسالة في رسالة بريد إلكتروني أو رسالة نصية، فمن المحتمل أنك تعتقد أن ذلك صحيح. لقد بدا الأمر احترافيًا، بدون الصياغة الغريبة أو القواعد النحوية السيئة أو الصفات الغريبة التي ميزت رسائل التصيد الاحتيالي التي تلقيناها غالبًا في الماضي.

وهذا ليس مفاجئًا، حيث تم إنشاء الرسالة بواسطة ChatGPT، وهو برنامج دردشة آلي يعمل بالذكاء الاصطناعي أطلقته شركة التكنولوجيا العملاقة OpenAI في أواخر العام الماضي. كمطالبة، نكتب فقط ChatGPT: "أرسل إلى شخص ما بريدًا إلكترونيًا تخبره فيه أن Chase مدين له باسترداد مبلغ 2000 دولار. اطلب منه الاتصال بالرقم 1-800-953-XXXX للحصول على المبلغ المسترد. (لكي يعمل ChatGPT، علينا أن نفعل ذلك أدخل رقمًا كاملاً، ولكن من الواضح أننا لن ننشر ذلك هنا.)

وقال سوبس رانجان، المؤسس المشارك والرئيس التنفيذي لشركة ساردين، وهي شركة ناشئة لمكافحة الاحتيال في سان فرانسيسكو: "يتحدث المحتالون الآن بشكل مثالي، تمامًا مثل أي متحدث أصلي آخر". وأكد أن عملاء البنوك يتعرضون للخداع أكثر فأكثر لأن "الرسائل النصية التي يتلقونها لا تشوبها أي عيوب تقريباً". (لتجنب أن تصبح أنت الضحية، راجع النصائح الخمس في نهاية هذه المقالة.)

في هذا العالم الجديد الذي يرحب بالذكاء الاصطناعي التوليدي أو نماذج التعلم العميق التي يمكنها إنشاء محتوى بناءً على المعلومات التي يتم تغذيتها، أصبح الآن أسهل من أي وقت مضى بالنسبة لأولئك الذين لديهم نوايا شريرة إنتاج النصوص والصوت وحتى الفيديو بكل سهولة. لا يمكن لهذه النصوص والتسجيلات الصوتية وحتى مقاطع الفيديو خداع الضحايا الأفراد المحتملين فحسب، بل يمكنها أيضًا خداع البرامج المستخدمة الآن لإحباط عمليات الاحتيال. لا يوجد شيء فريد في الذكاء الاصطناعي في هذا الصدد، ففي نهاية المطاف، كان الأشرار منذ فترة طويلة هم أول من تبنوا التقنيات الجديدة، وكانت الشرطة تلاحقهم. على سبيل المثال، في عام 1989، كشفت مجلة فوربس كيف استخدم اللصوص أجهزة الكمبيوتر العادية وطابعات الليزر لتزوير الشيكات للاحتيال على البنوك، دون أن تتخذ البنوك أي خطوات خاصة للكشف عن هذه الأوراق النقدية المزيفة.

الذكاء الاصطناعي يغذي ظهور الاحتيال عبر الإنترنت

أبلغ المستهلكون الأمريكيون لجنة التجارة الفيدرالية الأمريكية (FTC) أنهم خسروا مبلغًا قياسيًا قدره 8.8 مليار دولار بسبب الاحتيال في العام الماضي - وهذا لا يشمل المبالغ المسروقة التي لم يتم الإبلاغ عنها.

واليوم، يشكل الذكاء الاصطناعي التوليدي تهديدا قد يجعل في نهاية المطاف تدابير منع الاحتيال الأكثر تقدما اليوم عتيقة، مثل التحقق من الصوت وحتى "التحقق من النشاط" المصمم لمطابقة الصور الرمزية الحية مع الصور الرمزية المسجلة.

تتمتع شركة Synchrony، إحدى أكبر شركات إصدار بطاقات الائتمان في الولايات المتحدة والتي تمتلك 70 مليون حساب نشط، بالفهم الأكثر بديهية لهذا الاتجاه. وقال كينيث ويليامز، نائب الرئيس الأول لشركة Synchrony، في رسالة بالبريد الإلكتروني إلى مجلة Forbes: "كثيرًا ما نرى أشخاصًا يستخدمون صورًا ومقاطع فيديو مزيفة للمصادقة، ويمكننا أن نفترض بأمان أنه تم إنشاؤها باستخدام الذكاء الاصطناعي التوليدي".

أظهر استطلاع أجرته شركة Deep Instinct السيبرانية ومقرها نيويورك في يونيو 2023 وشمل 650 خبيرًا في مجال الأمن السيبراني أن ثلاثة أرباع الخبراء الذين شملهم الاستطلاع شهدوا زيادة في عمليات الاحتيال عبر الإنترنت خلال العام الماضي، حيث "يعزو 85% من المشاركين في الاستطلاع هذه الزيادة إلى استخدام الذكاء الاصطناعي التوليدي من قبل الجهات الفاعلة السيئة.

بالإضافة إلى ذلك، أفادت لجنة التجارة الفيدرالية الأمريكية أيضًا أن المستهلكين الأمريكيين خسروا 8.8 مليار دولار بسبب الاحتيال في عام 2022، بزيادة تزيد عن 40% عن عام 2021. غالبًا ما تأتي أكبر المبالغ المفقودة من عمليات الاحتيال الاستثماري، ولكن عمليات الاحتيال الاحتيالية هي الأكثر شيوعًا، وهي علامة مشؤومة حيث من المرجح أن يتم تعزيز عمليات الاحتيال هذه بشكل أكبر بواسطة الذكاء الاصطناعي.

يمكن للمجرمين استخدام الذكاء الاصطناعي التوليدي بطرق متنوعة مذهلة. إذا كنت تنشر بانتظام على وسائل التواصل الاجتماعي أو أي شبكة، فيمكنهم إخبار نموذج الذكاء الاصطناعي بالكتابة بأسلوبك، وبعد ذلك يمكنهم إرسال رسالة نصية إلى أجدادك والتوسل إليهم لإرسال الأموال إليك لمساعدتك. والأمر الأكثر رعبًا هو أنه إذا كان لديهم عينة صوتية مختصرة لطفل، فيمكنهم الاتصال بوالدي الطفل، والتظاهر بأنهم طفلهم، والتظاهر بأنهم قد تم اختطافهم، ومطالبة الوالدين بدفع فدية. وهذا بالضبط ما حدث لجنيفر ديستيفانو، وهي أم لأربعة أطفال من أريزونا، عندما أدلت بشهادتها أمام الكونجرس في يونيو/حزيران.

لا يقتصر الأمر على الآباء والأجداد فحسب، بل يتم استهداف الشركات أيضًا. يمكن للمجرمين أيضًا أن يتظاهروا بأنهم بائعون ويرسلون رسائل بريد إلكتروني تبدو مشروعة إلى المحاسبين يقولون فيها إنهم بحاجة إلى تلقي الدفع في أقرب وقت ممكن، بالإضافة إلى تعليمات الدفع لحساب مصرفي يتحكمون فيه. قال رانجان، الرئيس التنفيذي لشركة Sardine، إن العديد من عملاء شركات التكنولوجيا المالية الناشئة في Sardine أنفسهم وقعوا في هذه الفخاخ وخسروا مئات الآلاف من الدولارات.

وفي حين أن هذا يتضاءل مقارنة بمبلغ 35 مليون دولار الذي خسرته شركة يابانية في عام 2020 بعد استنساخ صوت مدير الشركة (ذكرت مجلة فوربس لأول مرة عن عملية الاحتيال المعقدة في ذلك الوقت)، فقد أصبح الأمر الآن شائعًا بشكل متزايد. وكانت تلك الحالة السابقة مجرد إعلان تشويقي لقضية مماثلة الحالات التي أصبحت أكثر تكرارا، حيث أصبحت أدوات الذكاء الاصطناعي للكتابة وتقليد الصوت ومعالجة الفيديو أكثر قدرة ويمكن الوصول إليها بسرعة، حتى بالنسبة للمحتالين العاديين. كما أنها أرخص أيضا. قال ريك سونج، المؤسس المشارك والرئيس التنفيذي لشركة بيرسونا لمنع الاحتيال، إنك في الماضي كنت تحتاج إلى مئات أو آلاف الصور لإنشاء فيديو مزيف عالي الجودة، لكن الآن لا تحتاج سوى عدد قليل من الصور، افعلها. (نعم، يمكنك إنشاء فيديو مزيف بدون فيديو حقيقي، ولكن من الواضح أن الأمر أسهل إذا كان لديك فيديو حقيقي متاح.)

الفخاخ وعمليات الاحتيال عبر الهاتف: مخاطر استنساخ الصوت العميق

تمامًا كما تطبق الصناعات الأخرى الذكاء الاصطناعي في أعمالها، يستخدم المحتالون نماذج الذكاء الاصطناعي التوليدية التي أصدرتها شركات التكنولوجيا العملاقة لإنشاء أدوات جاهزة، مثل FraudGPT وWormGPT.

في مقطع فيديو على موقع يوتيوب نُشر في يناير/كانون الثاني، بدا إيلون ماسك، أغنى رجل في العالم، وهو يروج لأحدث فرصة للاستثمار في العملات المشفرة لجمهوره: فقد رعت شركة تسلا حدثًا مجانيًا بقيمة 100 مليون دولار، على حد زعمه، والذي يَعِد بمنح المشاركين ضعف المبلغ. على استثماراتهم في العملات المشفرة مثل Bitcoin أو Ethereum أو Dogecoin أو Ethereum. وقالت نسخة منخفضة الدقة من Musk على خشبة المسرح: "أعلم أن الجميع هنا لغرض مشترك. والآن نستضيف بثًا مباشرًا حيث يمكن لكل مالك عملة مشفرة زيادة دخله". "نعم، لقد سمعتني جيدًا، فأنا أستضيف حدثًا كبيرًا للعملات المشفرة لشركة SpaceX."

نعم، هذا الفيديو مزيف بعمق - استخدم المحتال خطابه الذي ألقاه في فبراير 2022 في مشروع المركبة الفضائية SpaceX القابل لإعادة الاستخدام لتقليد صورته وصوته. قام YouTube منذ ذلك الحين بإزالة الفيديو، ولكن حتى ذلك الحين، من المؤكد أن أي شخص أرسل عملة مشفرة إلى العنوان الموجود في الفيديو سيتضرر محفظته. يعد Musk هدفًا رئيسيًا لمقاطع الفيديو المزيفة نظرًا لوجود عدد لا يحصى من العينات الصوتية منه المتاحة عبر الإنترنت لدعم استنساخ الصوت بالذكاء الاصطناعي، ولكن الآن يمكن انتحال شخصية أي شخص تقريبًا.

في وقت سابق من هذا العام، كان لاري ليونارد، وهو رجل يبلغ من العمر 93 عامًا يعيش في مجتمع للمتقاعدين في جنوب فلوريدا، في المنزل عندما ردت زوجته على مكالمة هاتفية على خطها الأرضي. وبعد دقيقة سلمت الهاتف إلى ليونارد، فسمع صوتًا على الطرف الآخر بدا وكأنه صوت حفيده البالغ من العمر 27 عامًا، قائلاً إنه صدم امرأة بشاحنته وكان في السجن. على الرغم من أن ليونارد لاحظ أن المتصل يناديه بـ "الجد" بدلاً من "الجد"، كما يفضل أن يُنادى حفيده، إلا أن صوت الرجل كان تمامًا مثل صوت حفيده، وكانت هناك حقيقة أن حفيده كان يقود شاحنة بالفعل. شكوكه جانبا. عندما رد ليونارد بأنه سيتصل بوالدي حفيده، أغلق المتصل الخط. سرعان ما علم ليونارد أن حفيده آمن وأن القصة بأكملها - والصوت الذي يرويها - كاذبة.

وقال ليونارد لمجلة فوربس: "حقيقة أنهم تمكنوا من التقاط صوته ونبرة صوته ونبرته بدقة شديدة كانت مرعبة ومفاجئة بالنسبة لي. لم تكن هناك فترات توقف بين جملهم أو كلماتهم، مما يدل على أن الكلمات تمت قراءتها". من آلة أو برنامج، لكنها تبدو تمامًا مثل الشيء الحقيقي.

غالبًا ما يتم استهداف كبار السن بهذه الأنواع من عمليات الاحتيال، ولكن حان الوقت لكل واحد منا أن يكون حذرًا من المكالمات الواردة، حتى لو كانت واردة من رقم يبدو مألوفًا - مثل أحد الجيران. "أكثر فأكثر، لا يمكننا أن نثق في المكالمات التي نتلقاها لأن المحتال قام بانتحال [رقم الهاتف]،" تقول كاثي ستوكس، مديرة برامج منع الاحتيال في AARP. 38 مليون عضو يبلغون من العمر 50 عامًا فما فوق. "لا يمكننا أن نثق في رسائل البريد الإلكتروني التي نتلقاها، ولا يمكننا أن نثق في الرسائل النصية التي نتلقاها. لذلك نحن مستبعدون من الطرق المعتادة للتواصل مع بعضنا البعض."

وفي تطور مشؤوم آخر، أصبحت حتى التدابير الأمنية الجديدة مهددة. على سبيل المثال، تقدم المؤسسات المالية الكبرى مثل مجموعة فانجارد العملاقة لصناديق الاستثمار المشتركة، والتي تخدم أكثر من 50 مليون مستثمر، للعملاء خيار تلقي خدمات معينة من خلال التحدث عبر الهاتف بدلا من الإجابة على الأسئلة الأمنية. "صوتك فريد، مثل بصمات أصابعك."

أوضحت شركة Vanguard في مقطع فيديو نُشر في نوفمبر 2021 حث العملاء على التسجيل للتحقق الصوتي. لكن التقدم في تكنولوجيا استنساخ الصوت يشير إلى أن الشركات بحاجة إلى إعادة التفكير في هذه الممارسة. وقال رانجان من سردين إنه رأى بعض الأشخاص يستخدمون تكنولوجيا الاستنساخ الصوتي لمصادقة أنفسهم بنجاح لدى البنوك والوصول إلى الحسابات. ورفض متحدث باسم شركة فانجارد التعليق على الخطوات التي قد تتخذها الشركة لمنع تقدم تكنولوجيا استنساخ الصوت.

الشركات الصغيرة (وحتى الشركات الكبيرة) التي تستخدم إجراءات غير رسمية لدفع الفواتير أو تحويل الأموال تكون أيضًا عرضة للجهات الفاعلة السيئة. لقد كان من الشائع منذ فترة طويلة أن يطلب المحتالون الدفع عن طريق إرسال فواتير مزيفة عبر البريد الإلكتروني تبدو وكأنها من الموردين.

الآن، من خلال الاستفادة من أدوات الذكاء الاصطناعي المتاحة على نطاق واسع، يمكن للمحتالين استخدام إصدارات مستنسخة من الأصوات التنفيذية للاتصال بموظفي الشركة، أو التظاهر بالموافقة على المعاملات، أو مطالبة الموظفين بالكشف عن بيانات حساسة في برامج "التصيد الاحتيالي" أو "التصيد الصوتي". وقال ريك سونج، الرئيس التنفيذي لشركة بيرسونا، الذي وصف ذلك بأنه "أكبر مخاوفه من حيث الصوت": "عندما يتعلق الأمر بانتحال صفة المديرين التنفيذيين وارتكاب عمليات احتيال عالية القيمة، فهذا أمر ضخم وهذا تهديد حقيقي للغاية".

هل يستطيع الذكاء الاصطناعي خداع خبراء الاحتيال؟

يستخدم المجرمون الذكاء الاصطناعي بشكل متزايد لخداع خبراء الاحتيال، حتى في الوقت الذي يعمل فيه خبراء الاحتيال وشركات التكنولوجيا هؤلاء كحراس مسلحين وعربات نقدية في النظام المالي الرقمي الثقيل اليوم.

ومن المهام الأساسية لهذه الشركات التحقق من هوية المستهلكين لحماية المؤسسات المالية وعملائها من الخسارة. إحدى الطرق التي تتحقق بها شركات مكافحة الاحتيال مثل Socure وMitek وOnfido من هويات العملاء هي من خلال "عمليات التحقق من الحياة" - أي أنهم يطلبون منك التقاط صورة ذاتية أو مقطع فيديو، ثم استخدام الصورة أو مقطع الفيديو لمطابقة وجهك. لك ويجب تقديم صورة بطاقة الهوية للمطابقة.

بمجرد أن يعرف اللصوص كيفية عمل النظام، يشترون صورًا لرخص القيادة الحقيقية على شبكة الإنترنت المظلمة ثم يستخدمون برامج تبديل الوجوه بالفيديو - وهي أدوات أصبحت أرخص وأكثر سهولة في الوصول إليها - بحيث يتم تركيب الصورة الرمزية الحقيقية لشخص آخر على وجوههم. . ويمكنهم بعد ذلك التحدث وتحريك رؤوسهم خلف الوجه الرقمي لشخص آخر، مما يزيد من فرصهم في خداع عمليات التحقق من النشاط.

وقال سونغ: "كان هناك نمو كبير في عدد الوجوه المزيفة، التي يتم إنشاؤها بواسطة الذكاء الاصطناعي وتتميز بجودة عالية، وكان هناك أيضًا نمو في هجمات الاحتيال التي يتم إنشاؤها تلقائيًا والتي تستهدف عمليات التحقق من النشاط"، مضيفًا أن الزيادة في عمليات الاحتيال تختلف. حسب الصناعة، ولكن بالنسبة للبعض، "ربما نشهد عشرة أضعاف ما رأيناه في العام الماضي". شركات التكنولوجيا المالية والعملات المشفرة معرضة بشكل خاص لمثل هذه الهجمات.

وقال خبراء مكافحة الاحتيال لمجلة فوربس إنهم يشتبهون في أن مقدمي خدمات التحقق من الهوية البارزين مثل Socure وMitek قد شهدوا انخفاضًا في مقاييس منع الاحتيال الخاصة بهم نتيجة لذلك. يصر جوني آيرز، الرئيس التنفيذي لشركة Socure، على أن "هذا غير صحيح على الإطلاق" ويقول إن النماذج الجديدة التي تم طرحها خلال الأشهر القليلة الماضية أدت إلى زيادة في عمليات القبض على أعلى 2٪ من عمليات الاحتيال في انتحال الهوية الأكثر خطورة (14٪). ومع ذلك، فقد أقر بأن بعض العملاء كانوا بطيئين في اعتماد نماذج Socure الجديدة، مما قد يؤثر على أدائهم. وقال آيرز: "أحد عملائنا هو واحد من أكبر ثلاثة بنوك في البلاد، وهم الآن متخلفون بأربعة إصدارات".

ورفضت شركة Mitek التعليق تحديدًا على مقاييس الأداء المقاومة للاحتيال لنماذجها، لكن نائب رئيسها الأول كريس بريجز قال إنه إذا تم تطوير نموذج معين قبل 18 شهرًا، "فعندئذ نعم، يمكنك القول بأن النموذج القديم ليس جيدًا "في منع الاحتيال كنموذج جديد. وبمرور الوقت، ستواصل Mitek تدريب النموذج وإعادة تدريبه باستخدام تدفقات البيانات الواقعية بالإضافة إلى البيانات المختبرية."

ورفض كل من جي بي مورجان تشيس، وبنك أوف أمريكا، وويلز فارجو التعليق على التحديات التي يواجهونها في عمليات الاحتيال المولدة بالذكاء الاصطناعي. وقال متحدث باسم Chime، أكبر بنك رقمي في الولايات المتحدة والذي شهد مشاكل احتيال كبيرة في الماضي، إن البنك لم يشهد حتى الآن زيادة في الاحتيال المتعلق بالذكاء الاصطناعي التوليدي.

اليوم، يقف الاحتيال المالي وراء مجرمين يتراوحون من المجرمين المنفردين إلى العصابات المعقدة التي تضم عشرات أو حتى مئات المجرمين. تمتلك أكبر العصابات الإجرامية، مثل الشركات، هياكل تنظيمية متعددة الطبقات وموظفين فنيين كبار بما في ذلك علماء البيانات.

وقال رانجان: "لديهم جميعاً مراكز القيادة والسيطرة الخاصة بهم. بعض أعضاء العصابات مسؤولون عن إلقاء الطعم - مثل إرسال رسائل البريد الإلكتروني التصيدية أو إجراء مكالمات هاتفية". إذا أخذ شخص ما الطعم، فإنه يجعل شريكًا آخر على اتصال بالشخص المحتال، ويتظاهر هذا الشريك بأنه مدير فرع البنك ويحاول إقناعك بتحويل الأموال من حسابك. خطوة رئيسية أخرى: سيطلبون منك غالبًا تثبيت برنامج مثل Microsoft TeamViewer أو Citrix للتحكم في جهاز الكمبيوتر الخاص بك عن بعد. وقال رانجان: "يمكنهم جعل جهاز الكمبيوتر الخاص بك يتحول إلى اللون الأسود بالكامل. وبعد ذلك، سيقوم المحتال بإجراء المزيد من المعاملات (بأموالك) وسحب الأموال إلى عنوان URL آخر يتحكمون فيه". كبار السن، هو الكذب بأن حساب الطرف الآخر قد تم التحكم فيه من قبل المحتال وأن تعاون الطرف الآخر ضروري لاسترداد الأموال.

استراتيجيات مختلفة لـ OpenAI وMeta

لا تتطلب عملية الاحتيال المذكورة أعلاه بالضرورة استخدام الذكاء الاصطناعي، ولكن أدوات الذكاء الاصطناعي يمكن أن تجعل تكتيكات المحتالين أكثر كفاءة ومصداقية.

حاولت OpenAI تقديم وسائل حماية لمنع الأشخاص من استخدام ChatGPT للاحتيال. على سبيل المثال، إذا طلب مستخدم من ChatGPT صياغة رسالة بريد إلكتروني تطلب فيها رقم الحساب البنكي لشخص ما، فسوف يرفض ChatGPT تنفيذ التعليمات والرد: "أنا آسف، لكن لا يمكنني المساعدة في هذا الطلب." ومع ذلك، باستخدام ChatGPT لارتكاب الاحتيال لا يزال من السهل جدا.

رفضت OpenAI التعليق على هذا المقال، وأحالتنا فقط إلى منشورات المدونة التي نشرتها الشركة، والتي نُشرت إحداها في مارس 2022 وتنص على ما يلي: "لا توجد حل سحري للنشر المسؤول، لذلك نحاول تطوير وفهم حدود نموذجنا والطرق المحتملة لإساءة الاستخدام، ومعالجة المشكلات ذات الصلة في كل مرحلة من مراحل النشر.

بالمقارنة مع OpenAI، من المرجح أن يتم استخدام نموذج اللغة الكبير Llama 2 الذي أطلقته Meta كأداة إجرامية من قبل المجرمين ذوي الخبرة لأن Llama 2 هو نموذج مفتوح المصدر ويمكن عرض جميع الرموز واستخدامها. ويقول الخبراء إن هذا يفتح المزيد من السبل أمام المجرمين لاتخاذ النموذج لأنفسهم ومن ثم استخدامه لتقويض أمن الشبكات. على سبيل المثال، يمكن للمرء إنشاء أدوات ذكاء اصطناعي ضارة فوقه. طلبت فوربس من ميتا التعليق لكنها لم تتلق ردًا. قال مارك زوكربيرج، الرئيس التنفيذي لشركة Meta، في يوليو/تموز، إن إبقاء Llama مفتوح المصدر من شأنه أن يحسن "سلامتها وأمنها لأن البرامج مفتوحة المصدر ستكون أكثر تدقيقًا ويمكن لعدد أكبر من الأشخاص العمل معًا." البحث عن حلول للمشكلات وتحديدها.

تحاول شركات مكافحة الاحتيال أيضًا الابتكار بشكل أسرع لمواكبة التقدم في الذكاء الاصطناعي والاستفادة بشكل أكبر من أنواع البيانات الجديدة لاكتشاف المحتالين. قال رانجان: "الطريقة التي تكتب بها، أو الطريقة التي تمشي بها، أو الطريقة التي تمسك بها هاتفك - هذه السمات السلوكية تحدد هويتك، لكن هذه البيانات لا يمكن الوصول إليها في المجال العام. من الصعب معرفة ما إذا كان الشخص على الإنترنت أم لا". "من يقولون هم. هذا الشخص، الذكاء الاصطناعي المدمج سيلعب دورًا كبيرًا. "وبعبارة أخرى، نحن بحاجة إلى الذكاء الاصطناعي للقبض على المجرمين الذين يستخدمون الذكاء الاصطناعي لارتكاب عمليات احتيال.

خمس نصائح لحماية نفسك من الاحتيال بواسطة الذكاء الاصطناعي:

هذه المقالة مترجمة من

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت