برايس ووترهاوس كوبرز: فك تشفير المخاطر والتحديات الأمنية التي يثيرها الذكاء الاصطناعي التوليدي

المصدر: برايس ووترهاوس كوبرز

مصدر الصورة: تم إنشاؤه بواسطة Unbounded AI

** تأثير موجة منتجات الذكاء الاصطناعي التوليدية على أمن المؤسسة **

من المتوقع أن يحرر عدد من منتجات الذكاء الاصطناعي التوليدية مثل ChatGPT الموظفين من المهام الشاقة والمتكررة ، ويمكن للموظفين تكريس المزيد من الوقت والطاقة للعمل الأكثر قيمة للشركة. ومع ذلك ، من منظور أمن المؤسسة ، قد تؤدي منتجات الذكاء الاصطناعي التوليدية إلى مخاطر جديدة ، وهو سيف ذو حدين للمؤسسات.

** 01 اشتداد خطر الهجمات الإلكترونية **

الذكاء الاصطناعي التوليدي يقلل من حواجز دخول المتسللين. يمكن للقراصنة استخدام الذكاء الاصطناعي التوليدي لدمج أساليب الهجوم السيبراني المختلفة بسرعة ، و "تسليح" أساليب الهجوم بشكل ملائم ، وربما تحقيق أساليب هجوم مبتكرة. لاحظ فريق الأمن السيبراني في برايس ووترهاوس كوبرز بوضوح أن هجمات الهندسة الاجتماعية مثل رسائل البريد الإلكتروني المخادعة التي يتلقاها العملاء قد زادت بشكل كبير في الأشهر الأخيرة ، وهو ما يتزامن مع الاستخدام الواسع النطاق لـ ChatGPT ؛ كما تم العثور على ChatGPT ليكون أكثر خداعًا لمواقع الخداع الجماعي.

** 02 تسرب البيانات الحساس للمؤسسات **

يساور خبراء الأمن مخاوف بشأن التسرب المحتمل للبيانات الحساسة للمؤسسات ، وقد يتسبب سلوك الإدخال غير السليم للموظفين في بقاء البيانات الحساسة في قاعدة بيانات منتجات الذكاء الاصطناعي التوليفية. تُظهر سياسة خصوصية OpenAI أن المحتوى الذي يدخله المستخدمون عند استخدام ChatGPT سيُستخدم لتدريب نموذج خوارزمية الذكاء الاصطناعي. علاوة على ذلك ، تعرض ChatGPT لمشاكل أمنية خطيرة ، وبسبب نقاط الضعف في مكتبة مفتوحة المصدر ، يمكن لبعض المستخدمين رؤية عناوين محفوظات محادثات المستخدمين الآخرين. في الوقت الحالي ، قام العديد من عمالقة التكنولوجيا مثل Amazon و Microsoft بتذكير الموظفين بعدم مشاركة البيانات الحساسة مع ChatGPT.

** 03 مخاطر التسمم التوليدي بالذكاء الاصطناعي **

يعد تسمم بيانات التدريب تهديدًا أمنيًا شائعًا يواجهه الذكاء الاصطناعي التوليدي ، حيث سيكون للبيانات الضارة تأثير سلبي على نتائج خوارزميات الذكاء الاصطناعي. إذا كانت إدارة العمليات تعتمد بشكل كبير على الذكاء الاصطناعي التوليدي ، فقد يتم اتخاذ قرارات خاطئة بشأن القضايا الحرجة. من ناحية أخرى ، فإن الذكاء الاصطناعي التوليدي لديه أيضًا مشاكل "تحيز" محتملة. على غرار نشاط "100 زجاجة من السم للذكاء الاصطناعي" الذي شارك فيه العديد من الخبراء والعلماء المعروفين ، في عملية تطوير أو استخدام الذكاء الاصطناعي ، يجب على الشركات أن تستجيب بفاعلية لتهديد التسمم بالذكاء الاصطناعي بطريقة استراتيجية.

** 04 مشكلات حماية الخصوصية **

تتطلب مرحلة ما قبل التدريب المسبق للذكاء الاصطناعي قدرًا كبيرًا من جمع البيانات والتعدين ، والتي قد تشمل المعلومات الخاصة للعديد من العملاء والموظفين. إذا لم يتمكن الذكاء الاصطناعي التوليدي من حماية هذه المعلومات الخاصة وإخفاء هويتها بشكل صحيح ، فقد يؤدي ذلك إلى تسرب الخصوصية ، وقد يتم إساءة استخدام هذه المعلومات الخاصة لتحليل سلوك المستخدم والتكهن به. على سبيل المثال ، سوق تطبيقات الهاتف المحمول مليء ببرامج إنشاء الصور ، يحتاج المستخدمون فقط إلى تحميل صور رمزية متعددة لأنفسهم ، ويمكن للبرنامج إنشاء صور مركبة لمشاهد وموضوعات مختلفة. ومع ذلك ، فإن الطريقة التي تستخدم بها شركات البرمجيات الصور الرمزية التي تم تحميلها بواسطة هؤلاء المستخدمين ، سواء كانت ستوفر حماية الخصوصية ومخاطر أمنية أخرى ، تستحق الاهتمام والاستجابة.

** 05 مخاطر الامتثال لأمن المؤسسة **

في غياب تدابير الإدارة الفعالة ، قد يؤدي الاعتماد الجماعي لمنتجات الذكاء الاصطناعي التوليدية إلى مشكلات الامتثال الأمني ، وهو بلا شك تحديًا كبيرًا لمديري أمن المؤسسات. تم الإعلان قبل أيام قليلة عن الإجراءات المؤقتة لإدارة خدمات الذكاء الاصطناعي التوليدية ، والتي تمت مراجعتها والموافقة عليها من قبل إدارة الفضاء الإلكتروني في الصين ووافقت عليها ست إدارات بما في ذلك اللجنة الوطنية للتنمية والإصلاح ووزارة التعليم. تدخل حيز التنفيذ في 151 آب / أغسطس 2. فهو يضع المتطلبات الأساسية من منظور تطوير التكنولوجيا والحوكمة ، ومواصفات الخدمة ، والإشراف والتفتيش ، والمسؤولية القانونية ، ويضع إطارًا أساسيًا للامتثال لاعتماد الذكاء الاصطناعي التوليدي.

** تعرَّف على سيناريوهات التهديدات الأمنية القائمة على الذكاء الاصطناعي في العالم الواقعي **

بعد فهم المخاطر الأمنية التي يقدمها الذكاء الاصطناعي التوليدي ، سيحلل ما يلي كيفية ظهور المشكلة في سيناريو أكثر تحديدًا للتهديد الأمني ، واستكشاف التأثير الدقيق للذكاء الاصطناعي التوليدي على أمان المؤسسة.

** 01 هجوم الهندسة الاجتماعية **

قال المخترق العالمي الشهير كيفن ميتنيك ذات مرة: "العنصر البشري هو الحلقة الأضعف في سلسلة الأمان". يتمثل التكتيك المعتاد لقراصنة الهندسة الاجتماعية في استخدام كلمات لطيفة لجذب موظفي الشركات ، وقد سهل ظهور الذكاء الاصطناعي التوليدي هجمات الهندسة الاجتماعية إلى حد كبير. يمكن للذكاء الاصطناعي التوليدي إنشاء محتوى مزيف واقعي للغاية ، بما في ذلك الأخبار المزيفة ومنشورات الوسائط الاجتماعية المزيفة ورسائل البريد الإلكتروني الاحتيالية والمزيد. قد يؤدي هذا المحتوى المزيف إلى تضليل المستخدمين أو نشر معلومات خاطئة أو خداع الموظفين لاتخاذ قرارات خاطئة. يمكن أيضًا استخدام الذكاء الاصطناعي التوليدي لتجميع الصوت أو الفيديو لتبدو وكأنها حقيقية ، والتي يمكن استخدامها لارتكاب الاحتيال أو تزوير الأدلة. أصدر مكتب التحقيقات الجنائية التابع لمكتب الأمن العام ببلدية باوتو قضية احتيال في مجال الاتصالات باستخدام تقنية الذكاء الاصطناعي الذكية.

** 02 الانتهاكات غير الواعية من قبل الموظفين **

بدأ العديد من مصنعي التكنولوجيا في وضع مسار الذكاء الاصطناعي التوليدي بنشاط ، ودمج عدد كبير من وظائف الذكاء الاصطناعي التوليدية في المنتجات والخدمات. قد يستخدم الموظفون عن غير قصد منتجات الذكاء الاصطناعي التوليفية دون قراءة شروط الاستخدام الخاصة بالمستخدم بعناية قبل استخدامها. عندما يستخدم موظفو المؤسسة الذكاء الاصطناعي التوليفي ، فقد يدخلون محتوى يحتوي على معلومات حساسة ، مثل البيانات المالية ، ومعلومات المشروع ، وأسرار الشركة ، وما إلى ذلك ، مما قد يؤدي إلى تسرب معلومات حساسة للمؤسسة. لمنع الإفصاح عن المعلومات الحساسة بواسطة الذكاء الاصطناعي التوليدي ، تحتاج الشركات إلى اتخاذ تدابير أمنية شاملة: بما في ذلك تعزيز تكنولوجيا حماية تسرب البيانات وتقييد سلوك الموظفين عبر الإنترنت ؛ وفي الوقت نفسه ، يحتاجون إلى توفير تدريب أمني للموظفين لتحسين أمن البيانات و انتظر السرية اليقظة. بمجرد اكتشاف انتهاك أحد الموظفين ، تحتاج الشركة إلى تقييم التأثير على الفور واتخاذ الإجراءات في الوقت المناسب.

** 03 تمييز وتحيز لا مفر منه **

يرجع السبب في احتمال وجود تمييز وتحيز في الذكاء الاصطناعي التوليدي بشكل أساسي إلى خصائص بيانات التدريب وتصميم النموذج. تعكس بيانات التدريب من الإنترنت تحيزات في العالم الحقيقي ، بما في ذلك جوانب مثل العرق والجنس والثقافة والدين والوضع الاجتماعي. أثناء معالجة بيانات التدريب ، قد لا تكون هناك إجراءات فحص وتنظيف كافية لاستبعاد البيانات المتحيزة. وبالمثل ، قد لا يكون هناك اهتمام كافٍ لتقليل التحيز في تصميم النموذج واختيار الخوارزمية للذكاء الاصطناعي التوليدي. تلتقط النماذج الخوارزمية التحيزات في بيانات التدريب أثناء تعلمها ، مما يؤدي إلى تحيزات مماثلة في النص الذي تم إنشاؤه. في حين أن القضاء على التحيز والتمييز من الذكاء الاصطناعي التوليدي يمثل تحديًا معقدًا ، إلا أن هناك خطوات يمكن للشركات اتخاذها للمساعدة في التخفيف منها 3.

** 04 المساومة على حماية الخصوصية **

في عملية استخدام منتجات الذكاء الاصطناعي التوليدية ، من أجل متابعة التشغيل الآلي الفعال والخدمات الشخصية ، قد تقدم الشركات والأفراد بعض التنازلات فيما يتعلق بحماية الخصوصية ، مما يسمح للذكاء الاصطناعي التوليدي بجمع بعض البيانات الخاصة. بالإضافة إلى قيام المستخدمين بالإفصاح عن محتوى الخصوصية الشخصية للذكاء الاصطناعي التوليدي أثناء الاستخدام ، قد يقوم الذكاء الاصطناعي التوليدي أيضًا بتحليل إدخال المحتوى من قبل المستخدم ، واستخدام الخوارزميات للتكهن بالمعلومات الشخصية للمستخدم أو التفضيلات أو السلوكيات ، مما يزيد من انتهاك خصوصية المستخدم. يعد إزالة حساسية البيانات وإخفاء الهوية من الإجراءات الشائعة لحماية الخصوصية ، ولكنه قد يؤدي إلى فقدان بعض المعلومات من البيانات ، وبالتالي تقليل دقة نموذج التوليد. يجب إيجاد توازن بين حماية الخصوصية الشخصية وجودة المحتوى الذي تم إنشاؤه . كمزود للذكاء الاصطناعي ، يجب أن يزود المستخدمين ببيان شفاف لسياسة الخصوصية لإبلاغهم بجمع البيانات واستخدامها ومشاركتها ، حتى يتمكن المستخدمون من اتخاذ قرارات مستنيرة.

** 05 الاتجاهات الرئيسية في الامتثال التنظيمي **

من وجهة النظر الحالية ، تأتي مخاطر الامتثال القانوني التي يواجهها الذكاء الاصطناعي التوليدي بشكل أساسي من "انتهاكات المحتوى للقوانين واللوائح" و "انتهاك حقوق الملكية الفكرية". في حالة عدم وجود إشراف ، قد ينتج عن الذكاء الاصطناعي المُنشئ محتوى غير قانوني أو غير مناسب ، والذي قد يتضمن عناصر غير قانونية أو غير قانونية مثل الإهانات ، والتشهير ، والمواد الإباحية ، والعنف ؛ ومن ناحية أخرى ، قد ينتج عن الذكاء الاصطناعي المُنشئ محتوى استنادًا إلى المحتوى المحمي بحقوق الطبع والنشر الموجود ، والذي قد يؤدي إلى التعدي على الملكية الفكرية. يجب على الشركات التي تستخدم الذكاء الاصطناعي التوليدي إجراء مراجعات الامتثال لضمان امتثال تطبيقاتها للوائح والمعايير ذات الصلة وتجنب المخاطر القانونية غير الضرورية. يجب على الشركات أولاً تقييم ما إذا كانت المنتجات التي تستخدمها تمتثل لأحكام "التدابير المؤقتة لإدارة خدمات الذكاء الاصطناعي التوليدية". وفي الوقت نفسه ، يجب أن تولي اهتمامًا وثيقًا لتحديثات وتغييرات القوانين واللوائح ذات الصلة ، وإجراء التعديلات في الوقت المناسب لضمان الامتثال. عندما تستخدم المؤسسات الذكاء الاصطناعي التوليفي مع الموردين أو الشركاء ، فإنها تحتاج إلى توضيح حقوق ومسؤوليات كل طرف ، والنص على الالتزامات والقيود المقابلة في العقد.

** كيف يمكن للأفراد والشركات التعامل بشكل استباقي مع مخاطر وتحديات الذكاء الاصطناعي التوليدي **

يحتاج المستخدمون الأفراد وموظفو الشركات إلى إدراك أنه أثناء الاستمتاع بوسائل الراحة المختلفة التي يوفرها الذكاء الاصطناعي التوليفي ، لا يزالون بحاجة إلى تعزيز حماية خصوصيتهم الشخصية والمعلومات الحساسة الأخرى.

** 01 تجنب الإفصاح عن الخصوصية الشخصية **

قبل استخدام منتجات الذكاء الاصطناعي التوليفية ، يجب على الموظفين التأكد من أن مزود الخدمة سيحمي بشكل معقول خصوصية وأمن المستخدمين ، ويقرأ بعناية سياسة الخصوصية وشروط المستخدم ، ويحاول اختيار مزود موثوق تم التحقق منه من قبل الجمهور. حاول تجنب إدخال بيانات الخصوصية الشخصية أثناء الاستخدام ، واستخدم الهويات الافتراضية أو المعلومات المجهولة في سيناريوهات لا تتطلب معلومات هوية حقيقية.يجب التعتيم على أي بيانات حساسة محتملة قبل الإدخال. على الإنترنت ، وخاصة وسائل التواصل الاجتماعي والمنتديات العامة ، يجب على الموظفين تجنب الإفراط في مشاركة المعلومات الشخصية ، مثل الأسماء والعناوين وأرقام الهواتف وما إلى ذلك ، وعدم كشف المعلومات بسهولة على مواقع الويب والمحتويات التي يمكن الوصول إليها بشكل عام.

** 02 تجنب إنشاء محتوى مضلل **

نظرًا لقيود المبادئ التقنية للذكاء الاصطناعي التوليدي ، ستكون النتائج حتمًا مضللة أو متحيزة.كما يدرس خبراء الصناعة باستمرار كيفية تجنب مخاطر إفساد البيانات. للحصول على معلومات مهمة ، يجب على الموظفين التحقق منها من عدة مصادر مستقلة وموثوقة ، وإذا ظهرت نفس المعلومات في مكان واحد فقط ، فقد تكون هناك حاجة لمزيد من التحقيق لتأكيد صحتها. اكتشف ما إذا كانت المعلومات الواردة في النتائج مدعومة بأدلة قوية.إذا لم يكن هناك أساس موضوعي ، فقد تحتاج إلى أن تكون متشككًا بشأن المعلومات. يتطلب تحديد التضليل والتحيز للذكاء الاصطناعي التوليدي من المستخدمين الحفاظ على التفكير النقدي ، وتحسين محو الأمية الرقمية لديهم باستمرار ، وفهم كيفية استخدام منتجاتها وخدماتها بأمان.

بالمقارنة مع الموقف المنفتح للمستخدمين الفرديين ، لا تزال الشركات تنتظر وتراقب الذكاء الاصطناعي التوليدي.إن إدخال الذكاء الاصطناعي التوليدي يمثل فرصة وتحديًا للمؤسسات. تحتاج الشركات إلى تنفيذ اعتبارات المخاطر الشاملة وإجراء بعض عمليات النشر الإستراتيجي للاستجابة مقدمًا. ** توصي شركة PwC بأنه يمكن للمؤسسات النظر في بدء الأعمال ذات الصلة من الجوانب التالية **.

** 01 تقييم أمان شبكة المؤسسة يوضح أوجه القصور الدفاعية **

يظل التحدي الأول الذي يواجه المؤسسات هو كيفية الدفاع ضد الجيل التالي من الهجمات الإلكترونية التي يسببها الذكاء الاصطناعي التوليدي. بالنسبة للمؤسسات ، من الضروري تقييم حالة أمان الشبكة الحالية ، وتحديد ما إذا كانت المؤسسة لديها قدرات كافية للكشف الأمني والدفاع للتعامل مع هذه الهجمات ، وتحديد نقاط الضعف المحتملة في الدفاع الأمني للشبكة ، واتخاذ تدابير التعزيز المقابلة للتعامل معها بفعالية. من أجل تحقيق الأهداف المذكورة أعلاه ، يوصي فريق الأمن السيبراني في برايس ووترهاوس كوبرز بإجراء تدريبات على المواجهة الهجومية والدفاعية بناءً على سيناريوهات التهديد الحقيقي للهجوم الإلكتروني ، أي "المواجهة الحمراء والزرقاء" للأمن السيبراني. من سيناريوهات الهجوم المختلفة ، يمكننا اكتشاف أوجه القصور المحتملة للدفاع الأمني للشبكة مسبقًا ، وإصلاح العيوب الدفاعية بشكل شامل ومنهجي ، وذلك لحماية أصول تكنولوجيا المعلومات الخاصة بالمؤسسة وأمن البيانات.

** 02 نشر بيئة اختبار الذكاء الاصطناعي التوليدية الداخلية للمؤسسة **

لفهم المبادئ التقنية للذكاء الاصطناعي التوليدي والتحكم بشكل أفضل في نتائج نماذج الذكاء الاصطناعي التوليدية ، يمكن للمؤسسات التفكير في إنشاء بيئة اختبار آلية تحديد آلية للذكاء الاصطناعي خاصة بها داخليًا ، وذلك لمنع التهديدات المحتملة للذكاء الاصطناعي التوليدية التي لا يمكن السيطرة عليها من منتجات الذكاء الاصطناعي لبيانات المؤسسة. من خلال الاختبار في بيئة معزولة ، يمكن للشركات ضمان توفر بيانات دقيقة وخالية من التحيز بطبيعتها لتطوير الذكاء الاصطناعي ، ويمكنها استكشاف وتقييم أداء النموذج بثقة أكبر دون المخاطرة بالتعرض للبيانات الحساسة. يمكن لبيئة الاختبار المعزولة أيضًا تجنب تسمم البيانات والهجمات الخارجية الأخرى على الذكاء الاصطناعي التوليدي ، والحفاظ على استقرار نموذج الذكاء الاصطناعي التوليدي.

** 03 وضع استراتيجية لإدارة المخاطر للذكاء الاصطناعي التوليدي **

يجب على الشركات دمج الذكاء الاصطناعي التوليفي في النطاق المستهدف لإدارة المخاطر في أقرب وقت ممكن ، واستكمال وتعديل إطار واستراتيجية إدارة المخاطر. إجراء تقييمات المخاطر لسيناريوهات الأعمال باستخدام الذكاء الاصطناعي التوليفي ، وتحديد المخاطر المحتملة ونقاط الضعف الأمنية ، وصياغة خطط المخاطر المقابلة ، وتوضيح الإجراءات المضادة وتخصيصات المسؤولية. إنشاء نظام صارم لإدارة الوصول لضمان أن الموظفين المعتمدين فقط هم من يمكنهم الوصول إلى منتجات الذكاء الاصطناعي التوليفية المعتمدة من المؤسسة واستخدامها. في الوقت نفسه ، يجب تنظيم سلوك استخدام المستخدمين ، ويجب تدريب موظفي المؤسسة على إدارة مخاطر الذكاء الاصطناعي التوليدية لتعزيز الوعي الأمني لدى الموظفين وقدراتهم على التكيف. يجب على رواد الأعمال أيضًا اعتماد نهج الخصوصية حسب التصميم عند تطوير تطبيقات الذكاء الاصطناعي التوليدية ، بحيث يعرف المستخدمون النهائيون كيف سيتم استخدام البيانات التي يقدمونها وما هي البيانات التي سيتم الاحتفاظ بها.

** 04 تكوين مجموعة عمل مخصصة لأبحاث الذكاء الاصطناعي **

يمكن للشركات جمع المعرفة والمهارات المهنية داخل المنظمة لاستكشاف الفرص والمخاطر المحتملة لتكنولوجيا الذكاء الاصطناعي التوليدية بشكل مشترك ، ودعوة الأعضاء الذين يفهمون المجالات ذات الصلة للمشاركة في مجموعة العمل ، بما في ذلك خبراء حوكمة البيانات ، وخبراء نموذج الذكاء الاصطناعي ، وخبراء مجال الأعمال ، وخبراء الامتثال القانوني ينتظرون. يجب أن تضمن إدارة المؤسسة أن أعضاء مجموعة العمل لديهم إمكانية الوصول إلى البيانات والموارد اللازمة لتمكينهم من الاستكشاف والتجربة ، مع تشجيع أعضاء مجموعة العمل على التجربة والتحقق من صحتها في بيئات الاختبار لفهم الفرص والفرص المحتملة للذكاء الاصطناعي التوليدي بشكل أفضل. تطبيق الأعمال يمكن للسيناريوهات موازنة المخاطر من أجل الحصول على فوائد تطبيق التكنولوجيا المتقدمة.

خاتمة

إن تطوير وتطبيق الذكاء الاصطناعي التوليدي له تأثير كبير على التكنولوجيا ، مما قد يؤدي إلى ثورة جديدة في الإنتاجية. تُعد Generative AI تقنية قوية تجمع بين التطورات في مجالات مثل التعلم العميق ومعالجة اللغة الطبيعية والبيانات الضخمة لتمكين أنظمة الكمبيوتر من إنشاء محتوى بلغة الإنسان. يجب على الشركات والموظفين التحكم في هذه التكنولوجيا القوية والتأكد من أن تطويرها وتطبيقها يتم في إطار القانون والأخلاق والمسؤولية الاجتماعية ، وستكون هذه قضية مهمة في المستقبل. ** يلتزم فريق خبراء الذكاء الاصطناعي في برايس ووترهاوس كوبرز بالبحث عن كيفية مساعدة الشركات على إنشاء آلية إدارة متكاملة للذكاء الاصطناعي ** 4 ، حتى تتمكن الشركات من تطبيق هذه التكنولوجيا الناشئة وتطويرها بمزيد من راحة البال ، مما سيساعد الشركات على الانضمام إلى الموجة لتكنولوجيا الذكاء الاصطناعي ، يمكن للذكاء الاصطناعي التوليدي تزويد المؤسسات بمزايا تنافسية مستدامة.

ملحوظة

  1. التدابير المؤقتة لإدارة خدمات الذكاء الاصطناعي التوليدية \ _ الوثائق الإدارية لمجلس الدولة \ _ChinaGov.com

  2. الابتكار والحوكمة: تفسير أحدث الاتجاهات التنظيمية في الذكاء الاصطناعي التوليدي

  3. فهم التحيز الخوارزمي وكيفية بناء الثقة في الذكاء الاصطناعي

  4. إدارة مخاطر الذكاء الاصطناعي التوليدية: برايس ووترهاوس كوبرز

إخلاء المسؤولية: المعلومات الواردة في هذه المقالة هي لأغراض المعلومات العامة فقط ولا يجب اعتبارها شاملة ، كما أنها لا تشكل مشورة أو خدمات قانونية أو ضريبية أو مهنية أخرى من شركة برايس ووترهاوس كوبرز. لن تكون المؤسسات الأعضاء في برايس ووترهاوس كوبرز مسؤولة عن أي خسارة ناتجة عن أي موضوع بسبب استخدام محتوى هذه المقالة.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت