* مصدر الصورة: تم إنشاؤه بواسطة أداة Unbounded AI *
في 22 يونيو ، بالتوقيت المحلي في تورنتو ، ظهر يانغ ليكون ، "عراب الذكاء الاصطناعي" وكبير علماء الذكاء الاصطناعي في Meta ، في مناظرة مونك وقصف ChatGPT مرة أخرى: "في غضون خمس سنوات ، لن يستخدم أحد ChatGPT". وهو يعتقد أن ChatGPT لا يفهم حقًا العالم الحقيقي ، مجرد تدريب نصي خالص ، "ومعظم المعرفة البشرية لا علاقة لها بالنص أو اللغة."
جذب هذا التنبؤ الجريء الكثير من الاهتمام على الفور.
مناقشة مونك التي حضرها يانغ ليكون كان موضوعها أيضا "الذكاء الاصطناعي يشكل تهديدا وجوديا". خلال المناقشة ، أصر يانغ ليكون على أن "التنبؤ بالموت الذي يجلبه الذكاء الاصطناعي ليس سوى ظلامية جديدة".
يعتقد Yang Likun أن ما يقلق الناس هو أنه بمجرد تشغيل الذكاء الاصطناعي في المستقبل ، فإنه سيسيطر على العالم في بضع دقائق ، "هذا أمر سخيف". هذا الخوف من الذكاء الاصطناعي متجذر في علم النفس البشري وليس له دليل علمي في الوقت الحالي.
* يانغ ليكون في ساحة المناظرة *
فيما يتعلق بـ "نظرية التهديد" ، فقد احتدم النقاش في وادي السيليكون ، ولم يتم التوصل إلى إجماع ، وهذا النقاش هو استمرار لهذا الموضوع ، ولم يثير الكثير من الضجيج على الإنترنت. ومن المثير للاهتمام ، أن مقطع الفيديو القصير لـ Yang Likun الذي ينتقد ChatGPT عرضًا أثناء المناقشة أصبح موضوعًا ساخنًا على وسائل التواصل الاجتماعي المحلية.
هذه ليست المرة الأولى التي يشتكي فيها Yang Likun من ChatGPT. في مؤتمر Viva Tech في باريس في منتصف يونيو ، اعتقد Yang Likun أن الذكاء الاصطناعي مثل ChatGPT ليس ذكيًا مثل الكلب. في أبريل ، قال في بث مباشر إن ChatGPT ليس بحثًا وتطويرًا فعليًا في مجال الذكاء الاصطناعي ، "إنه منتج".
تنبع شكوكه حول ChatGPT أولاً من حقيقة أنه لا يوجد ابتكار خاص على المستوى التقني. والسبب هو أن الشركات الأخرى لديها تقنيات مماثلة. OpenAI ليست متقدمة ، ولكن "(التكنولوجيا) مدمجة جيدًا."
ربما تسبب ذلك في الكثير من الجدل. أوضح Yang Likun لاحقًا على Twitter أنه لم ينتقد OpenAI كشركة ، ولكنه كان يأمل فقط في "تصحيح" الجمهور وتصور وسائل الإعلام - ChatGPT هو ابتكار مذهل يفوق منتجات الشركات الأخرى.
في الأشهر القليلة الماضية ، أصر Yang Likun دائمًا على انتقاد أولئك الذين يبالغون بل ويتفاخرون بالقدرات التقنية الأساسية التي يستخدمها ChatGPT.
من وجهة نظره ، لا تزال أنظمة الذكاء الاصطناعي المدربة على نماذج لغوية كبيرة محدودة للغاية لأنها مجرد تدريب نصي ولا يمكنها تعلم التجربة الحقيقية للبشر في العالم الحقيقي. قال ذات مرة إن الذكاء الاصطناعي اليوم يمكنه اجتياز امتحان المحاماة في الولايات المتحدة ، لكن لا يمكنه استخدام غسالة الأطباق ، بينما يمكن لطفل يبلغ من العمر 10 سنوات "تعلمه في 10 دقائق".
قد تكون فقاعة ChatGPT على وشك الانفجار
منذ إصدار ChatGPT ، استخدمه أكثر من 100 مليون شخص حول العالم ، ويدفع الكثير منهم 20 دولارًا شهريًا لاشتراك ChatGPT Plus. ومع ذلك ، فقد اشتكى العديد من المستخدمين على الإنترنت مؤخرًا من أن GPT4 أسوأ من GPT3.5.
كتب أحد المستخدمين: "قبل أسبوعين ، كان GPT4 أعظم مساعد كتابة في العالم ، منذ وقت ليس ببعيد ، أصبح متواضعًا للغاية ، أعتقد أنهم قطعوا قوة المعالجة أو جعلوها أقل ذكاءً."
وحتى لو خرج باحثو أوبن إيه آي لدحض الشائعات قائلين إن "النموذج الكبير ثابت" فلن يضعف الأداء ولن يكون مقنعًا تمامًا.
لقد اجتذبت قطعة من البيانات الحديثة اهتمامًا واسع النطاق. وفقًا لبيانات موقع مماثل ، ارتفع عدد زيارات ChatGPT في الأشهر الثلاثة الأولى من هذا العام ، وتباطأ في أبريل. وانخفض معدل النمو على أساس شهري من 55.8٪ في مارس إلى 12.6٪ ، واستمر في الانخفاض في مايو. ، ولم يتبق سوى 2.8٪. وفقًا للتوقعات ، قد يكون هناك رقم سلبي في يونيو.
تظهر التقارير البحثية متعددة الجنسيات أن معدل استخدام ChatGPT ليس مرتفعًا كما هو متوقع ، وأن 40٪ على الأقل من الأشخاص "لم يسمعوا به" أو "لم يستخدموه". لا يمكن لـ ChatGPT أيضًا الاحتفاظ بالمستخدمين العاديين الذين فقدوا نضارتهم.
الدقة سبب كبير لإيقاف المستخدمين. يتحدث ChatGPT بالهراء بطريقة جادة ، والتي لا تسبب فقط مشاكل غير ضرورية للمستخدمين ، ولكنها تحد أيضًا من سيناريوهات تطبيق ChatGPT. حتى يومنا هذا ، لم تتوصل شركة OpenAI إلى حل فعال.
قال Yang Likun أكثر من مرة أن الذكاء الاصطناعي التوليدي وراء ChatGPT قد وصل إلى طريق مسدود. قد لا يكون تأكيداته موضوعية ، ولكن بالحكم على رد فعل سوق رأس المال ، فإن النموذج الكبير يهدأ بالفعل.
كتب مايكل هارتنت المحلل في بنك أوف أمريكا أن الذكاء الاصطناعي موجود حاليًا في "فقاعة طفل". يذكره الازدهار الحالي في الذكاء الاصطناعي بفقاعة الإنترنت في أوائل القرن الحادي والعشرين. وحذر من أن فقاعة الذكاء الاصطناعي قد تكون على وشك الانفجار ، مستشهدا بالشركات والمساهمين الذين خفضوا حيازاتهم بشكل حاد على الرغم من الأداء الممتاز للأسهم الأمريكية.
يلبي انتقاد Yang Likun الصريح لـ ChatGPT العديد من الأشخاص الذين يشاهدون موجة الذكاء الاصطناعي بأعين باردة. يعتقد أحد مستخدمي الإنترنت على موقع Reddit أن Yang Likun قد يكون على حق ، "لقد أوضح Sam Altman أن GPT تواجه موقفًا من تناقص العوائد وتحتاج في النهاية إلى شيء جديد."
في نهاية التوبيخ ، فقط الحمار هو الذي يقرر الموقف؟
على الرغم من أن ChatGPT قد كشفت عن العديد من المشاكل ، إلا أن Yang Likun قصفها مرارًا وتكرارًا علنًا ، مما سيثير استياء بعض الناس بعد فترة طويلة.
نشر أحد مستخدمي موقع Reddit أن Yang Likun كان يصحح سوء فهم الجمهور ، ولكن يجب القول إنه لم يكن كرمًا بما يكفي لتحقيق النجاح بين عشية وضحاها للمنتجات المنافسة والشركات الناشئة. في نهاية المطاف ، فإن أبحاث الذكاء الاصطناعي "غير مجدية حتى تصل إلى نهاية النفق ، و 99٪ من الأوراق البحثية هي مجرد تحديثات طفيفة لأحدث التقنيات" و "اختراع محرك الاحتراق الداخلي هو مثل مهم مثل وضعه في السيارة ".
بعد مناظرة Munk ، سأل أحدهم Yang Likun على Twitter: "قلت في المناقشة أنك توقعت ChatGPT قبل حدوثه. هل تعلم حقًا أن ChatGPT قادم؟"
أجاب يانغ ليكون أن Meta أطلقت روبوتي حوار قبل ChatGPT ، أحدهما يسمى BlenderBot 3 والآخر يسمى Galactica. ومع ذلك ، عندما تم إطلاق Galactica ، تعرض لانتقادات شديدة بسبب بعض الإجابات الخاطئة (تسمى الآن "الهلوسة"). انتهى الأمر بميتا بإسقاط Galactica.
ما يستاء منه هو أن ChatGPT هراء مثل Galactica ، لكن الجمهور يختار أن يكون متسامحًا.
في مجال الذكاء الاصطناعي ، استيقظ Yang Likun و Meta مبكرًا ، لكنهما هرعا إلى الحلقة الأخيرة. في وقت مبكر من عام 2013 ، انضم إلى Meta لإجراء أبحاث الذكاء الاصطناعي. على مر السنين ، قام فريقه بتطبيق تقنية الذكاء الاصطناعي على المنتجات الاجتماعية للشركة ، خاصة منذ عام 2016 ، عندما وقع Facebook في عاصفة من الأخبار المزيفة ، تم استخدام تقنية الذكاء الاصطناعي لمساعدة النظام الأساسي في التحكم في المعلومات الخاطئة.
أصر Yang Likun على أن Meta و Google لم يطلقوا منتجات مثل ChatGPT أولاً ، "ليس لأنهم لا يستطيعون ، ولكن لأنهم لن يفعلوا ذلك."
بصراحة ، الشركات الكبرى أكثر خوفًا من الرأي العام. بالنظر إلى أن الذكاء الاصطناعي التوليدي يمكنه تجاوز آليات أمان Meta بسهولة نسبية ، ويمكن استخدامه لنشر معلومات خاطئة وضارة ، فإن Meta تخشى أن إطلاق الذكاء الاصطناعي التوليدي في وقت مبكر جدًا سيدفع الشركة إلى هاوية الرأي العام مرة أخرى.
لبعض الوقت ، خيمت هذه المخاوف على إستراتيجية Meta الداخلية للذكاء الاصطناعي. في عام 2022 ، تساور ثلث باحثي الذكاء الاصطناعي على الأقل شكوك حول مستقبل الشركة في مجال الذكاء الاصطناعي ، لذلك اختاروا مغادرة Meta. بعد أن أصدر OpenAI ChatGPT في نوفمبر ، غادر المزيد من الموظفين.
من الواضح أن نجاح OpenAI حفز Yang Likun و Meta. في فبراير من هذا العام ، أطلقت Meta تقنية نموذجية كبيرة تسمى LLaMA ، وفتحت مصدر كودها لموظفين محددين ، مما سمح للمطورين باستخدام LLaMA لتدريب روبوتات المحادثة الخاصة بهم. في الشهر الماضي ، أصدرت Meta أول نموذج I-JEPA للذكاء الاصطناعي "بشري" ، والذي يزعم أنه أكثر دقة وكفاءة من الذكاء الاصطناعي التوليدي. كما هو الحال دائمًا ، الأوراق والأكواد ذات الصلة مفتوحة المصدر.
اختار OpenAI المصدر المغلق. كان يانغ ليكون متبادلاً مرة أخرى: "الانفتاح سيجعل البحث يتقدم بشكل أسرع ، وسيكون هناك نظام بيئي أكثر ديناميكية حيث يمكن للجميع المساهمة."
أشاد زوكربيرج علنًا بالتقدم الذي حققته الشركة في مجال الذكاء الاصطناعي منذ وقت ليس ببعيد. لكن لا تنس أنه في فبراير من هذا العام ، أطلق زوكربيرج على عام 2023 "عام الكفاءة". قامت ميتا بتسريح أكثر من 11000 موظف وأغلقت عدة مشاريع واحدًا تلو الآخر.
من المفهوم أن يشتكي Yang Likun من المنتجات المنافسة ويدافع عن منتجاته الخاصة ، لكن المنافسة التجارية تعتمد في النهاية على النتائج ، ويتطلع الناس أيضًا إلى معرفة ورقة الإجابة Yang Likun ، المعروفة باسم "Godfather of AI" ، أخيرًا.
شاهد النسخة الأصلية
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
لماذا يقصف "الأب الروحي بالذكاء الاصطناعي" ChatGPT دائمًا؟
** نص | Lin Weixin **
** محرر | Su Jianxun **
** المصدر 丨 ** الظهور الذكي
في 22 يونيو ، بالتوقيت المحلي في تورنتو ، ظهر يانغ ليكون ، "عراب الذكاء الاصطناعي" وكبير علماء الذكاء الاصطناعي في Meta ، في مناظرة مونك وقصف ChatGPT مرة أخرى: "في غضون خمس سنوات ، لن يستخدم أحد ChatGPT". وهو يعتقد أن ChatGPT لا يفهم حقًا العالم الحقيقي ، مجرد تدريب نصي خالص ، "ومعظم المعرفة البشرية لا علاقة لها بالنص أو اللغة."
جذب هذا التنبؤ الجريء الكثير من الاهتمام على الفور.
مناقشة مونك التي حضرها يانغ ليكون كان موضوعها أيضا "الذكاء الاصطناعي يشكل تهديدا وجوديا". خلال المناقشة ، أصر يانغ ليكون على أن "التنبؤ بالموت الذي يجلبه الذكاء الاصطناعي ليس سوى ظلامية جديدة".
يعتقد Yang Likun أن ما يقلق الناس هو أنه بمجرد تشغيل الذكاء الاصطناعي في المستقبل ، فإنه سيسيطر على العالم في بضع دقائق ، "هذا أمر سخيف". هذا الخوف من الذكاء الاصطناعي متجذر في علم النفس البشري وليس له دليل علمي في الوقت الحالي.
فيما يتعلق بـ "نظرية التهديد" ، فقد احتدم النقاش في وادي السيليكون ، ولم يتم التوصل إلى إجماع ، وهذا النقاش هو استمرار لهذا الموضوع ، ولم يثير الكثير من الضجيج على الإنترنت. ومن المثير للاهتمام ، أن مقطع الفيديو القصير لـ Yang Likun الذي ينتقد ChatGPT عرضًا أثناء المناقشة أصبح موضوعًا ساخنًا على وسائل التواصل الاجتماعي المحلية.
هذه ليست المرة الأولى التي يشتكي فيها Yang Likun من ChatGPT. في مؤتمر Viva Tech في باريس في منتصف يونيو ، اعتقد Yang Likun أن الذكاء الاصطناعي مثل ChatGPT ليس ذكيًا مثل الكلب. في أبريل ، قال في بث مباشر إن ChatGPT ليس بحثًا وتطويرًا فعليًا في مجال الذكاء الاصطناعي ، "إنه منتج".
تنبع شكوكه حول ChatGPT أولاً من حقيقة أنه لا يوجد ابتكار خاص على المستوى التقني. والسبب هو أن الشركات الأخرى لديها تقنيات مماثلة. OpenAI ليست متقدمة ، ولكن "(التكنولوجيا) مدمجة جيدًا."
ربما تسبب ذلك في الكثير من الجدل. أوضح Yang Likun لاحقًا على Twitter أنه لم ينتقد OpenAI كشركة ، ولكنه كان يأمل فقط في "تصحيح" الجمهور وتصور وسائل الإعلام - ChatGPT هو ابتكار مذهل يفوق منتجات الشركات الأخرى.
في الأشهر القليلة الماضية ، أصر Yang Likun دائمًا على انتقاد أولئك الذين يبالغون بل ويتفاخرون بالقدرات التقنية الأساسية التي يستخدمها ChatGPT.
من وجهة نظره ، لا تزال أنظمة الذكاء الاصطناعي المدربة على نماذج لغوية كبيرة محدودة للغاية لأنها مجرد تدريب نصي ولا يمكنها تعلم التجربة الحقيقية للبشر في العالم الحقيقي. قال ذات مرة إن الذكاء الاصطناعي اليوم يمكنه اجتياز امتحان المحاماة في الولايات المتحدة ، لكن لا يمكنه استخدام غسالة الأطباق ، بينما يمكن لطفل يبلغ من العمر 10 سنوات "تعلمه في 10 دقائق".
قد تكون فقاعة ChatGPT على وشك الانفجار
منذ إصدار ChatGPT ، استخدمه أكثر من 100 مليون شخص حول العالم ، ويدفع الكثير منهم 20 دولارًا شهريًا لاشتراك ChatGPT Plus. ومع ذلك ، فقد اشتكى العديد من المستخدمين على الإنترنت مؤخرًا من أن GPT4 أسوأ من GPT3.5.
كتب أحد المستخدمين: "قبل أسبوعين ، كان GPT4 أعظم مساعد كتابة في العالم ، منذ وقت ليس ببعيد ، أصبح متواضعًا للغاية ، أعتقد أنهم قطعوا قوة المعالجة أو جعلوها أقل ذكاءً."
وحتى لو خرج باحثو أوبن إيه آي لدحض الشائعات قائلين إن "النموذج الكبير ثابت" فلن يضعف الأداء ولن يكون مقنعًا تمامًا.
لقد اجتذبت قطعة من البيانات الحديثة اهتمامًا واسع النطاق. وفقًا لبيانات موقع مماثل ، ارتفع عدد زيارات ChatGPT في الأشهر الثلاثة الأولى من هذا العام ، وتباطأ في أبريل. وانخفض معدل النمو على أساس شهري من 55.8٪ في مارس إلى 12.6٪ ، واستمر في الانخفاض في مايو. ، ولم يتبق سوى 2.8٪. وفقًا للتوقعات ، قد يكون هناك رقم سلبي في يونيو.
تظهر التقارير البحثية متعددة الجنسيات أن معدل استخدام ChatGPT ليس مرتفعًا كما هو متوقع ، وأن 40٪ على الأقل من الأشخاص "لم يسمعوا به" أو "لم يستخدموه". لا يمكن لـ ChatGPT أيضًا الاحتفاظ بالمستخدمين العاديين الذين فقدوا نضارتهم.
الدقة سبب كبير لإيقاف المستخدمين. يتحدث ChatGPT بالهراء بطريقة جادة ، والتي لا تسبب فقط مشاكل غير ضرورية للمستخدمين ، ولكنها تحد أيضًا من سيناريوهات تطبيق ChatGPT. حتى يومنا هذا ، لم تتوصل شركة OpenAI إلى حل فعال.
قال Yang Likun أكثر من مرة أن الذكاء الاصطناعي التوليدي وراء ChatGPT قد وصل إلى طريق مسدود. قد لا يكون تأكيداته موضوعية ، ولكن بالحكم على رد فعل سوق رأس المال ، فإن النموذج الكبير يهدأ بالفعل.
كتب مايكل هارتنت المحلل في بنك أوف أمريكا أن الذكاء الاصطناعي موجود حاليًا في "فقاعة طفل". يذكره الازدهار الحالي في الذكاء الاصطناعي بفقاعة الإنترنت في أوائل القرن الحادي والعشرين. وحذر من أن فقاعة الذكاء الاصطناعي قد تكون على وشك الانفجار ، مستشهدا بالشركات والمساهمين الذين خفضوا حيازاتهم بشكل حاد على الرغم من الأداء الممتاز للأسهم الأمريكية.
يلبي انتقاد Yang Likun الصريح لـ ChatGPT العديد من الأشخاص الذين يشاهدون موجة الذكاء الاصطناعي بأعين باردة. يعتقد أحد مستخدمي الإنترنت على موقع Reddit أن Yang Likun قد يكون على حق ، "لقد أوضح Sam Altman أن GPT تواجه موقفًا من تناقص العوائد وتحتاج في النهاية إلى شيء جديد."
في نهاية التوبيخ ، فقط الحمار هو الذي يقرر الموقف؟
على الرغم من أن ChatGPT قد كشفت عن العديد من المشاكل ، إلا أن Yang Likun قصفها مرارًا وتكرارًا علنًا ، مما سيثير استياء بعض الناس بعد فترة طويلة.
نشر أحد مستخدمي موقع Reddit أن Yang Likun كان يصحح سوء فهم الجمهور ، ولكن يجب القول إنه لم يكن كرمًا بما يكفي لتحقيق النجاح بين عشية وضحاها للمنتجات المنافسة والشركات الناشئة. في نهاية المطاف ، فإن أبحاث الذكاء الاصطناعي "غير مجدية حتى تصل إلى نهاية النفق ، و 99٪ من الأوراق البحثية هي مجرد تحديثات طفيفة لأحدث التقنيات" و "اختراع محرك الاحتراق الداخلي هو مثل مهم مثل وضعه في السيارة ".
بعد مناظرة Munk ، سأل أحدهم Yang Likun على Twitter: "قلت في المناقشة أنك توقعت ChatGPT قبل حدوثه. هل تعلم حقًا أن ChatGPT قادم؟"
أجاب يانغ ليكون أن Meta أطلقت روبوتي حوار قبل ChatGPT ، أحدهما يسمى BlenderBot 3 والآخر يسمى Galactica. ومع ذلك ، عندما تم إطلاق Galactica ، تعرض لانتقادات شديدة بسبب بعض الإجابات الخاطئة (تسمى الآن "الهلوسة"). انتهى الأمر بميتا بإسقاط Galactica.
ما يستاء منه هو أن ChatGPT هراء مثل Galactica ، لكن الجمهور يختار أن يكون متسامحًا.
في مجال الذكاء الاصطناعي ، استيقظ Yang Likun و Meta مبكرًا ، لكنهما هرعا إلى الحلقة الأخيرة. في وقت مبكر من عام 2013 ، انضم إلى Meta لإجراء أبحاث الذكاء الاصطناعي. على مر السنين ، قام فريقه بتطبيق تقنية الذكاء الاصطناعي على المنتجات الاجتماعية للشركة ، خاصة منذ عام 2016 ، عندما وقع Facebook في عاصفة من الأخبار المزيفة ، تم استخدام تقنية الذكاء الاصطناعي لمساعدة النظام الأساسي في التحكم في المعلومات الخاطئة.
أصر Yang Likun على أن Meta و Google لم يطلقوا منتجات مثل ChatGPT أولاً ، "ليس لأنهم لا يستطيعون ، ولكن لأنهم لن يفعلوا ذلك."
بصراحة ، الشركات الكبرى أكثر خوفًا من الرأي العام. بالنظر إلى أن الذكاء الاصطناعي التوليدي يمكنه تجاوز آليات أمان Meta بسهولة نسبية ، ويمكن استخدامه لنشر معلومات خاطئة وضارة ، فإن Meta تخشى أن إطلاق الذكاء الاصطناعي التوليدي في وقت مبكر جدًا سيدفع الشركة إلى هاوية الرأي العام مرة أخرى.
لبعض الوقت ، خيمت هذه المخاوف على إستراتيجية Meta الداخلية للذكاء الاصطناعي. في عام 2022 ، تساور ثلث باحثي الذكاء الاصطناعي على الأقل شكوك حول مستقبل الشركة في مجال الذكاء الاصطناعي ، لذلك اختاروا مغادرة Meta. بعد أن أصدر OpenAI ChatGPT في نوفمبر ، غادر المزيد من الموظفين.
من الواضح أن نجاح OpenAI حفز Yang Likun و Meta. في فبراير من هذا العام ، أطلقت Meta تقنية نموذجية كبيرة تسمى LLaMA ، وفتحت مصدر كودها لموظفين محددين ، مما سمح للمطورين باستخدام LLaMA لتدريب روبوتات المحادثة الخاصة بهم. في الشهر الماضي ، أصدرت Meta أول نموذج I-JEPA للذكاء الاصطناعي "بشري" ، والذي يزعم أنه أكثر دقة وكفاءة من الذكاء الاصطناعي التوليدي. كما هو الحال دائمًا ، الأوراق والأكواد ذات الصلة مفتوحة المصدر.
اختار OpenAI المصدر المغلق. كان يانغ ليكون متبادلاً مرة أخرى: "الانفتاح سيجعل البحث يتقدم بشكل أسرع ، وسيكون هناك نظام بيئي أكثر ديناميكية حيث يمكن للجميع المساهمة."
أشاد زوكربيرج علنًا بالتقدم الذي حققته الشركة في مجال الذكاء الاصطناعي منذ وقت ليس ببعيد. لكن لا تنس أنه في فبراير من هذا العام ، أطلق زوكربيرج على عام 2023 "عام الكفاءة". قامت ميتا بتسريح أكثر من 11000 موظف وأغلقت عدة مشاريع واحدًا تلو الآخر.
من المفهوم أن يشتكي Yang Likun من المنتجات المنافسة ويدافع عن منتجاته الخاصة ، لكن المنافسة التجارية تعتمد في النهاية على النتائج ، ويتطلع الناس أيضًا إلى معرفة ورقة الإجابة Yang Likun ، المعروفة باسم "Godfather of AI" ، أخيرًا.