بيل جيتس: مخاطر الذكاء الاصطناعي حقيقية ، لكن يمكن التحكم فيها

بقلم: بيل جيتس

المصدر: Gatesnotes

* مصدر الصورة: تم إنشاؤه بواسطة أداة Unbounded AI *

لقد تعلمنا الكثير عن التعامل مع المشكلات التي تطرحها الابتكارات الخارقة.

قد تبدو المخاطر التي يشكلها الذكاء الاصطناعي هائلة. ماذا يحدث للأشخاص الذين استبعدت الآلات الذكية وظائفهم؟ هل سيؤثر الذكاء الاصطناعي على نتائج الانتخابات؟ ماذا لو قرر الذكاء الاصطناعي في المستقبل أنه لم تعد هناك حاجة للبشر ، ويريد التخلص منا؟

هذه أسئلة مشروعة ، والمخاوف التي تثيرها يجب أن تؤخذ على محمل الجد. لكن لدينا سبب وجيه للاعتقاد بأننا نستطيع حل هذه المشاكل: هذه ليست المرة الأولى التي يجلب فيها ابتكار رئيسي تهديدات جديدة يجب السيطرة عليها ، وقد واجهناها من قبل.

سواء كان ذلك بسبب ظهور السيارات أو ظهور الكمبيوتر الشخصي والإنترنت ، فقد مر الناس بلحظات تحويلية أخرى ، على الرغم من العديد من الاضطرابات ، انتهى بها الأمر إلى الأفضل. بعد فترة وجيزة من اصطدام السيارات الأولى بالطريق ، وقعت أولى الاصطدامات. ولكن بدلاً من حظر السيارات ، اعتمدنا حدود السرعة ومعايير السلامة ومتطلبات رخصة القيادة وقوانين القيادة تحت تأثير الكحول وقواعد الطريق الأخرى.

نحن الآن في المراحل الأولى من تحول عميق آخر ، عصر الذكاء الاصطناعي. إنه أقرب إلى عصر عدم اليقين قبل تحديد السرعة وأحزمة المقاعد. يتغير الذكاء الاصطناعي بسرعة كبيرة ، وليس من الواضح ما الذي سيحدث بعد ذلك. نحن نواجه أسئلة كبيرة حول كيفية عمل التكنولوجيا الحالية ، وكيف سيستخدمها الناس بشكل ضار ، وكيف سيغير الذكاء الاصطناعي المجتمع والأفراد.

في مثل هذه اللحظات ، من الطبيعي أن تشعر بعدم الارتياح. لكن التاريخ يظهر أنه من الممكن مواجهة التحديات التي تفرضها التقنيات الجديدة.

كتبت ذات مرة مقالًا حول كيف سيغير الذكاء الاصطناعي حياتنا تمامًا. سيساعد في حل المشكلات في الصحة والتعليم وتغير المناخ والمزيد التي بدت مستعصية في الماضي. جعلت مؤسسة Gates هذا أولوية ، وشارك الرئيس التنفيذي لدينا مارك سوزمان مؤخرًا أفكاره حول دور الذكاء الاصطناعي في الحد من عدم المساواة.

سأتحدث أكثر عن فوائد الذكاء الاصطناعي في المستقبل ، لكن في هذا المنشور أريد أن أتناول بعض المخاوف التي أسمعها وأقرأها كثيرًا ، والتي أشارك الكثير منها ، وأشرح كيف أراها.

الشيء الوحيد الذي يتضح من كل الكتابات عن مخاطر الذكاء الاصطناعي حتى الآن هو أنه لا أحد لديه كل الإجابات. نقطة أخرى واضحة هي أن مستقبل الذكاء الاصطناعي ليس قاتمًا كما يتخيله البعض ، ولا ورديًا كما يتخيله الآخرون. المخاطر حقيقية ، لكني متفائل بإمكانية إدارتها. بينما أتطرق إلى كل من هذه المخاوف ، سأعود إلى المواضيع التالية:

  • العديد من المشاكل التي يثيرها الذكاء الاصطناعي لها سابقة تاريخية. سيكون لها تأثير كبير على التعليم ، على سبيل المثال ، لكن الآلات الحاسبة المحمولة ستؤثر أيضًا منذ عقود ، ومؤخراً سمحت لأجهزة الكمبيوتر بدخول الفصول الدراسية. يمكننا التعلم من النجاحات السابقة.
  • يمكن أيضًا حل العديد من المشكلات التي يسببها الذكاء الاصطناعي بمساعدة الذكاء الاصطناعي.
  • نحن بحاجة إلى تكييف القوانين القديمة واعتماد قوانين جديدة - تمامًا كما يجب أن تتكيف قوانين مكافحة الاحتيال الحالية مع عالم الإنترنت.

في هذه المقالة ، سأركز على المخاطر الحالية أو الوشيكة. لن أناقش ما يحدث عندما نطور ذكاءً اصطناعيًا يمكنه تعلم أي موضوع أو مهمة ، على عكس الذكاء الاصطناعي المخصص اليوم. سواء وصلنا إلى هذه المرحلة في العقد القادم أو القرن المقبل ، يحتاج المجتمع إلى التفكير بعمق. ماذا لو حدد الذكاء الاصطناعي الخارق أهدافه الخاصة؟ ماذا لو تعارضوا مع البشر؟ هل يجب أن نبني ذكاء اصطناعيًا فائقًا؟

ومع ذلك ، فإن التفكير في هذه المخاطر طويلة المدى لا ينبغي أن يأتي على حساب المزيد من المخاطر الفورية.

** خلقت منظمة العفو الدولية معلومات مضللة ومزيفة قد تدمر الانتخابات والديمقراطية **

إن استخدام التكنولوجيا لنشر الأكاذيب والمعلومات المضللة ليس بالأمر الجديد. كان الناس يفعلون ذلك من خلال الكتب والنشرات لعدة قرون. أصبح هذا أسهل مع ظهور معالجات النصوص وطابعات الليزر والبريد الإلكتروني والشبكات الاجتماعية.

لقد تعامل الذكاء الاصطناعي مع مشكلة تزوير النص وقام بتوسيعه بحيث يمكن لأي شخص تقريبًا إنشاء صوت وفيديو مزيف ، يُعرف باسم التزييف العميق. إذا تلقيت رسالة صوتية تبدو وكأن طفلك يقول "لقد تعرضت للاختطاف ، فيرجى إرسال 1000 دولار إلى هذا الحساب المصرفي خلال الدقائق العشر القادمة ولا تتصل بالشرطة" ، فسيكون التأثير العاطفي الرهيب الذي يمكن أن تحدثه أقوى بكثير من رسالة بريد إلكتروني تقول نفس الشيء.

على نطاق أوسع ، يمكن استخدام تقنية التزييف العميق الناتجة عن الذكاء الاصطناعي لمحاولة التأثير على الانتخابات. بالطبع ، لا يتطلب الأمر تقنية متطورة للتشكيك في الفائز الشرعي في الانتخابات ، لكن الذكاء الاصطناعي سيجعل الأمر أسهل كثيرًا.

ظهرت بالفعل مقاطع فيديو مزيفة من لقطات مزيفة لسياسيين معروفين. تخيل أنه في صباح يوم الانتخابات ، انتشر مقطع فيديو يظهر فيه مرشح يسرق بنكًا. كان خطأ ، لكن الأمر استغرق ساعات حتى تثبته المؤسسات الإخبارية والحملة. كم عدد الأشخاص الذين سيشاهدون هذا الفيديو ويغيرون تصويتهم في اللحظة الأخيرة؟ قد يؤدي ذلك إلى قلب الموازين ، خاصة إذا كان السباق ضيقًا.

في الآونة الأخيرة ، عندما أدلى سام التمان ، أحد مؤسسي شركة OpenAI ، بشهادته أمام لجنة في مجلس الشيوخ الأمريكي ، تحدث أعضاء مجلس الشيوخ من كلا الحزبين عن تأثير الذكاء الاصطناعي على الانتخابات والديمقراطية. آمل أن يظل هذا الموضوع على جدول أعمال الجميع.

نحن بالتأكيد لم نحل مشكلة المعلومات المضللة والتزييف العميق. لكن هناك شيئان يجعلانني متفائلاً بحذر. أحدها أن الناس لديهم القدرة على تعلم عدم أخذ أي شيء في ظاهره. لسنوات ، كان مستخدمو البريد الإلكتروني غارقين في عمليات احتيال متنكرين في صورة أمراء نيجيريين يعدون بمشاركة أرقام بطاقات الائتمان مقابل مكافآت ضخمة. لكن في النهاية ، يتعلم معظم الناس التفكير مرتين. نظرًا لأن عمليات الخداع أصبحت أكثر تعقيدًا ، فقد أصبحت العديد من الأهداف أكثر خداعًا. نحن بحاجة لبناء نفس القدرة على التزييف العميق.

الشيء الآخر الذي أجده متفائلاً هو أن الذكاء الاصطناعي يمكن أن يساعد في تحديد التزييف العميق وإنشاء التزييف العميق. على سبيل المثال ، طورت إنتل كاشفًا للتزييف العميق ، وتقوم الوكالة الحكومية DARPA بتطوير تقنية لتحديد ما إذا كان قد تم العبث بالفيديو أو الصوت.

ستكون عملية تكرارية: سيجد شخص ما طريقة لاكتشاف التزوير ، وسيكتشف شخص ما كيفية مواجهته ، وسيقوم شخص ما بتطوير إجراءات مضادة ، وما إلى ذلك. لن يكون الأمر مثاليًا ، لكننا لن نكون في ذكاءنا أيضًا.

** سيجعل الذكاء الاصطناعي من السهل مهاجمة البشر والحكومات **

اليوم ، عندما يأمل المتسللون في العثور على ثغرة قابلة للاستغلال في البرامج ، فإنهم يفعلون ذلك من خلال "القوة الغاشمة" - كتابة التعليمات البرمجية ومهاجمة نقاط الضعف المحتملة حتى يتم اكتشاف الثغرة الأمنية. هذا ينطوي على العديد من الالتفافات ، لذلك يستغرق وقتا وصبرا.

يجب على محترفي الأمن الذين يرغبون في محاربة المتسللين أن يفعلوا الشيء نفسه. يمثل كل برنامج تصحيح تقوم بتثبيته على هاتفك أو الكمبيوتر المحمول ساعات من البحث.

ستعمل نماذج الذكاء الاصطناعي على تسريع هذه العملية من خلال مساعدة المتسللين على كتابة تعليمات برمجية أكثر كفاءة. كما أنهم قادرون على استغلال المعلومات العامة للفرد ، مثل مكان عملهم وأصدقائهم ، لتطوير هجمات تصيد أكثر تقدمًا مما هو متاح حاليًا.

الخبر السار هو أن الذكاء الاصطناعي سيف ذو حدين. تحتاج فرق الأمن في الحكومة والقطاع الخاص إلى امتلاك أحدث الأدوات للعثور على الثغرات الأمنية وإصلاحها قبل أن يستغلها المجرمون. آمل أن تتوسع صناعة أمان البرمجيات في العمل الذي يقومون به بالفعل في هذا المجال ، يجب أن يكون همهم الأول.

بالطبع ، هذا أيضًا هو سبب عدم محاولة منع الناس مؤقتًا من تنفيذ تطورات جديدة في الذكاء الاصطناعي ، كما اقترح البعض. لن يتوقف مجرمو الإنترنت عن صنع أدوات جديدة. أولئك الذين يريدون استخدام الذكاء الاصطناعي لتصميم أسلحة نووية وهجمات الإرهاب البيولوجي لن يتوقفوا. يجب أن تستمر الجهود لوقفها بنفس الوتيرة.

هناك أيضًا خطر ذو صلة على المستوى العالمي: سباق تسلح في الذكاء الاصطناعي يمكن استخدامه لتصميم وشن هجمات إلكترونية ضد دول أخرى. تريد حكومة كل دولة أن تمتلك أقوى تقنية متاحة لردع هجمات الأعداء. يمكن أن يؤدي دافع "عدم ترك أحد أولاً" هذا إلى سباق لإنشاء أسلحة إلكترونية خطيرة بشكل متزايد. ستزداد الأمور سوءًا بالنسبة للجميع.

إنها فكرة مخيفة ، لكن لدينا تاريخ كدليل. كما هو معيب مثل نظام حظر الانتشار النووي في العالم ، فقد منع الحرب النووية الشاملة التي نشأ جيلي مرعوبًا منها. يجب على الحكومات التفكير في إنشاء وكالة عالمية للذكاء الاصطناعي على غرار الوكالة الدولية للطاقة الذرية.

** الذكاء الاصطناعي سيأخذ وظائف الناس **

سيكون التأثير الرئيسي للذكاء الاصطناعي على العمل في السنوات القادمة في مساعدة الناس على أداء وظائفهم بشكل أكثر كفاءة. هذا صحيح سواء كنت تعمل في مصنع أو في مكتب تتعامل مع مكالمات المبيعات والحسابات المستحقة الدفع. في النهاية ، سيتمكن الذكاء الاصطناعي من التعبير عن نفسه جيدًا وإنشاء رسائل البريد الإلكتروني وإدارة صندوق الوارد الخاص بك نيابةً عنك. ببساطة عن طريق كتابة طلب باللغة الإنجليزية أو أي لغة أخرى ، يمكنك الحصول على PPT الذي تريده.

كما جادلت في مقالتي في شباط (فبراير) ، فإن زيادة الإنتاجية مفيدة للمجتمع. يمنح الأشخاص مزيدًا من الوقت للقيام بأشياء أخرى في العمل والمنزل. لن تختفي أبدًا الحاجة إلى الأشخاص المتعاونين - مثل التدريس ورعاية المرضى ورعاية المسنين. لكن بعض العمال يحتاجون إلى الدعم وإعادة التدريب أثناء انتقالنا إلى مكان عمل يحركه الذكاء الاصطناعي. هذه مهمة الحكومات والشركات التي يجب إدارتها حتى لا يتخلف العمال عن الركب - دون هذا النوع من الاضطراب في حياة الناس الذي يحدث عندما تُفقد وظائف التصنيع الأمريكية.

ضع في اعتبارك أيضًا أن هذه ليست المرة الأولى التي تؤدي فيها التقنيات الجديدة إلى تغييرات كبيرة في سوق العمل. لا أعتقد أن تأثير الذكاء الاصطناعي سيكون كبيرًا مثل الثورة الصناعية ، لكنه بالتأكيد سيكون مشابهًا لتأثير إدخال الكمبيوتر الشخصي. تطبيقات معالجة الكلمات لم تلغي العمل المكتبي ، لكنها غيرته إلى الأبد. كان على أرباب العمل والموظفين التكيف ، وقد فعلوا ذلك. سيكون التحول الذي أحدثه الذكاء الاصطناعي انتقالًا صعبًا ، ولكن هناك كل الأسباب للاعتقاد بأننا قادرون على تقليل الاضطراب في حياة الناس وسبل عيشهم.

** سيرث الذكاء الاصطناعي تحيزاتنا ويصنعها **

الهلوسة - عندما يقدم الذكاء الاصطناعي بثقة ادعاءات لا تتناسب مع الحقائق - تحدث عادةً لأن الجهاز لا يفهم طلبك. اطلب من الذكاء الاصطناعي أن يكتب قصة قصيرة عن إجازة على القمر ، وقد يمنحك إجابة خيالية. ولكن إذا طلبت من منظمة العفو الدولية كتابة خطط السفر الخاصة بك في تنزانيا نيابة عنك ، فقد ترسلك إلى فندق غير موجود أصلاً.

خطر آخر للذكاء الاصطناعي هو أنه يعكس أو حتى يعزز تحيزات الناس بشأن بعض الأجناس والأعراق والأعراق وما إلى ذلك.

لفهم سبب حدوث الهلوسة والتحيز ، من المهم معرفة كيفية عمل نماذج الذكاء الاصطناعي الأكثر شيوعًا اليوم. إنها في الأساس إصدارات معقدة للغاية من التعليمات البرمجية التي تسمح لتطبيق البريد الإلكتروني الخاص بك بالتنبؤ بالكلمة التالية التي توشك على كتابتها: فهي تفحص كميات هائلة من النص - في بعض الحالات ، كل النصوص المتوفرة تقريبًا على الويب - ثم تقوم بالتحليل إلى تجد أنماطًا في لغة البشر.

عندما تطرح سؤالاً على الذكاء الاصطناعي ، فإنه يبحث في الكلمات التي تستخدمها ثم يبحث عن أجزاء نصية مرتبطة غالبًا بهذه الكلمات. إذا كتبت "قائمة بمكونات الفطائر" ، فقد تلاحظ منظمة العفو الدولية أن كلمات مثل "الدقيق والسكر والملح ومسحوق الخبز والحليب والبيض" تتكرر كثيرًا مع العبارة. ثم ، بناءً على ما يعرفه عن الترتيب الذي تظهر به هذه الكلمات عادةً ، فإنه يولد إجابة. (تستخدم نماذج الذكاء الاصطناعي التي تعمل بهذه الطريقة ما يسمى بالمحولات. GPT-4 هو أحد هذه النماذج).

تشرح هذه العملية سبب الهلوسة أو التحيز للذكاء الاصطناعي. ليس له سياق للسؤال الذي طرحته أو ما قلته. إذا أخبرت منظمة العفو الدولية أنها ارتكبت خطأ ، فقد تقول "آسف ، لقد ارتكبت خطأ مطبعي". لكن هذا مجرد وهم ، في الواقع لا يدخل أي شيء. يقول هذا لأنه مسح نصًا كافيًا لمعرفة أن "آسف ، لقد ارتكبت خطأً إملائيًا" هي عبارة يكتبها الأشخاص غالبًا بعد أن يصححها شخص آخر.

وبالمثل ، ترث نماذج الذكاء الاصطناعي التحيزات المضمنة في النص الذي تم تدريبهم عليه. إذا قرأ المرء الكثير من المقالات عن الأطباء ، وكانت المقالات تذكر في الغالب الأطباء الذكور ، فستفترض الإجابة أن معظم الأطباء هم من الرجال.

على الرغم من أن بعض الباحثين يجادلون بأن الهلوسة مشكلة متأصلة ، إلا أنني لا أتفق معها. أنا متفائل أنه بمرور الوقت ، يمكن لنماذج الذكاء الاصطناعي أن تتعلم التمييز بين الحقيقة والخيال. على سبيل المثال ، قامت شركة OpenAI بأبحاث واعدة في هذا المجال.

تعمل مجموعات أخرى ، بما في ذلك معهد آلان تورينج والمعهد الوطني للمعايير والتكنولوجيا ، على معالجة التحيز. يتمثل أحد الأساليب في بناء القيم الإنسانية والتفكير عالي المستوى في الذكاء الاصطناعي. إنه مشابه لكيفية عمل البشر المدركين لذواتهم: ربما تعتقد أن معظم الأطباء هم من الذكور ، لكنك على دراية كافية بهذا الافتراض لتعلم أنه يجب عليك محاربته بوعي. يمكن للذكاء الاصطناعي أن يعمل بطريقة مماثلة ، خاصة إذا تم تصميم النماذج من قبل أشخاص من خلفيات مختلفة.

في النهاية ، يجب على كل شخص يستخدم الذكاء الاصطناعي أن يكون على دراية بقضية التحيز وأن يكون مستخدمًا مطلعًا. قد تكون الأوراق التي تطلب من الذكاء الاصطناعي صياغتها مليئة بالتحيز والأخطاء الواقعية. أنت بحاجة إلى فحص تحيزات الذكاء الاصطناعي بالإضافة إلى تحيزاتك.

** لن يتعلم الطلاب الكتابة لأن الذكاء الاصطناعي سيفعل ذلك من أجلهم **

يشعر العديد من المعلمين بالقلق من أن يؤدي الذكاء الاصطناعي إلى تعطيل تعاونهم مع الطلاب. في عصر يمكن لأي شخص لديه اتصال بالإنترنت استخدام الذكاء الاصطناعي لكتابة مسودة أولى جيدة لأطروحة ما ، ما الذي يمنع الطالب من تحويلها إلى أطروحة خاصة بهم؟

توجد بالفعل أدوات ذكاء اصطناعي يمكنها تعلم معرفة ما إذا كان أحد المقالات مكتوبًا بواسطة إنسان أم جهاز كمبيوتر ، بحيث يمكن للمدرسين معرفة الوقت الذي يقوم فيه الطلاب بواجبهم المنزلي. لكن بعض المعلمين لا يحاولون ثني الطلاب عن استخدام الذكاء الاصطناعي في كتاباتهم - فهم في الواقع يشجعونه.

في كانون الثاني (يناير) ، كتبت مدرسة اللغة الإنجليزية المخضرمة ، Cherie Shields ، في Education Week عن كيفية استخدامها ChatGPT في فصلها الدراسي. تساعد ChatGPT طلابها في كل شيء بدءًا من الكتابة إلى كتابة الخطوط العريضة ، بل وتوفر أيضًا ملاحظات حول مهامهم.

وكتبت: "يجب أن يتبنى المعلمون تقنية الذكاء الاصطناعي كأداة أخرى يمكن للطلاب استخدامها". "تمامًا كما علمنا الطلاب في السابق كيفية إجراء بحث جيد على Google ، يجب على المعلمين تصميم دروس واضحة حول كيفية مساعدة روبوتات ChatGPT في كتابة المقالات. قد يؤدي الاعتراف بوجود الذكاء الاصطناعي ومساعدة الطلاب على استخدامه إلى إحداث ثورة في الطريقة التي ندرس بها." كل معلم لديه الوقت لتعلم واستخدام أدوات جديدة ، ولكن المعلمين مثل Cherie Shields يقدمون حجة جيدة بأن أولئك الذين لديهم الوقت سيستفيدون بشكل كبير.

يذكرني هذا بفترة السبعينيات والثمانينيات عندما أصبحت الآلات الحاسبة الإلكترونية شائعة. يخشى بعض معلمي الرياضيات أن يتوقف الطلاب عن تعلم الحساب الأساسي ، لكن آخرين تبنوا التكنولوجيا الجديدة وركزوا على التفكير وراء الحساب.

يمكن أن يساعد الذكاء الاصطناعي أيضًا في الكتابة والتفكير النقدي. خاصة في الأيام الأولى ، عندما لا تزال الهلوسة والتحيز يمثلان مشكلة ، يمكن للمعلمين الحصول على الذكاء الاصطناعي لإنشاء مقالات ثم التحقق من الحقائق مع الطلاب. تزود المنظمات التعليمية غير الربحية ، مثل أكاديمية خان ، التي أمولها ، ومشروع الموارد التعليمية المفتوحة المدرسين والطلاب بأدوات مجانية عبر الإنترنت تركز بشدة على اختبار المطالبات. لا توجد مهارة أكثر أهمية من معرفة كيفية التمييز بين الحقيقة والمزيفة.

نحتاج حقًا إلى التأكد من أن البرامج التعليمية تساعد في سد فجوة التحصيل ، وليس جعلها أسوأ. برامج اليوم موجهة في المقام الأول نحو الطلاب الذين لديهم بالفعل الدافع للتعلم. يمكنه إنشاء خطة دراسية لك ، وتوجيهك إلى موارد جيدة ، واختبار معلوماتك. ومع ذلك ، فإنه لا يعرف حتى الآن كيفية إشراكك في الموضوعات التي لا تهمك بعد. هذه مشكلة يحتاج المطورون إلى معالجتها بحيث يمكن لجميع أنواع الطلاب الاستفادة من الذكاء الاصطناعي.

**ماذا بعد؟ **

أعتقد أن لدينا سببًا إضافيًا للتفاؤل بأننا نستطيع إدارة مخاطر الذكاء الاصطناعي مع تعظيم فوائده. لكن علينا أن نتصرف بسرعة.

تحتاج الحكومات إلى تطوير خبرة الذكاء الاصطناعي من أجل تطوير قوانين ولوائح مستنيرة للتعامل مع هذه التكنولوجيا الجديدة. إنهم بحاجة إلى التعامل مع المعلومات المضللة والتزييف العميق والتهديدات الأمنية والتغيرات في سوق العمل والتأثير على التعليم. مثال واحد فقط: يحتاج القانون إلى توضيح استخدامات التزييف العميق التي تعتبر قانونية ، وكيف يتم تصنيف التزييف العميق حتى يفهم الجميع أن ما يرونه أو يسمعونه مزيف.

يحتاج القادة السياسيون إلى أن يكونوا قادرين على الانخراط في حوار مستنير ومدروس مع الناخبين. كما يتعين عليهم أن يقرروا مقدار التعاون مع الدول الأخرى بشأن هذه القضايا ، بدلاً من أن يتعاونوا بمفردهم.

في القطاع الخاص ، تحتاج شركات الذكاء الاصطناعي إلى العمل بأمان ومسؤولية. ويشمل ذلك حماية خصوصية الأشخاص ، وضمان أن تعكس نماذج الذكاء الاصطناعي القيم الإنسانية الأساسية ، وتقليل التحيز لإفادة أكبر عدد ممكن من الناس ، ومنع استغلال التكنولوجيا من قبل المجرمين أو الإرهابيين. تحتاج الشركات في العديد من قطاعات الاقتصاد إلى مساعدة موظفيها على الانتقال إلى مكان عمل يركز على الذكاء الاصطناعي حتى لا يتخلف أحد عن الركب. يجب أن يعرف العملاء دائمًا أنهم يتفاعلون مع الذكاء الاصطناعي وليس البشر.

أخيرًا ، أشجع الجميع على إيلاء أكبر قدر ممكن من الاهتمام لتطوير الذكاء الاصطناعي. هذا هو أكثر الابتكارات التحويلية التي سنراها في حياتنا ، وسيعتمد النقاش العام الصحي على فهم الجميع لهذه التكنولوجيا وفوائدها ومخاطرها. ستكون فوائد الذكاء الاصطناعي هائلة ، وأفضل سبب للاعتقاد بأنه يمكننا التحكم في المخاطر هو أننا فعلنا ذلك.

شاهد النسخة الأصلية
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • أعجبني
  • تعليق
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت