مع ظهور أدوات AIGC مثل OpenAI's ChatGPT و Google's Bard ، تم دمج المحتوى الذي يحركه الذكاء الاصطناعي والمعلومات والروبوتات بسرعة في مواقع الويب في العام الماضي.
ومع ذلك ، عندما توفر هذه الأدوات راحة كبيرة وتحسن الكفاءة ، يتبعها أيضًا المستخدمون المزيفون ، والإعلانات غير المرغوب فيها ، والرسائل الخاطئة.
قبل أيام قليلة فقط ، بلغت قيمة شركة IRL (IN REAL LIFE) الناشئة للتطبيقات الاجتماعية 1.7 مليار دولار أمريكي ، وجمعت 170 مليون دولار أمريكي في جولة التمويل C بقيادة Softbank. ونتيجة لذلك ، فإن 95٪ من المستخدمين النشطين شهريًا البالغ عددهم 20 مليون مستخدم هم "روبوتات" ، وفقًا لتحقيق داخلي أجراه المجلس.
أصدرت NewsGuard ، وهي شركة تقدم تقييمات موثوقة لمنافذ الأخبار عبر الإنترنت ، تحليلاً جديدًا يُظهر أنه بفضل الميزانيات الإعلانية للعلامات التجارية العالمية الكبرى مثل عمالقة التكنولوجيا والبنوك ، فإنها تغمر المواقع منخفضة الجودة التي تم إنشاؤها بواسطة الذكاء الاصطناعي بدولارات إعلانية. تلقت مواقع الويب ذات المحتوى المنخفض الجودة الذي تم إنشاؤه بواسطة الذكاء الاصطناعي دعماً مالياً كبيراً ولا تزال قائمة.
وفي هذا الصدد ، خلص مراسل وسائل الإعلام الأجنبية ، جيمس فينسنت ، إلى أنه "في الوقت الحاضر ، تقتل منظمة العفو الدولية الويب القديم ، وولد الويب الجديد بصعوبة". وفي رأيه ، هذا ليس بالضرورة أمرًا سيئًا.
** في غضون دقائق قليلة ، يمكن للذكاء الاصطناعي التوليدي إنشاء الكثير من النصوص والصور **
بشكل عام ، قبل سنوات ، أشارت The Verge إلى أن الويب كان مكانًا للأفراد للإبداع والابتكار ، وقد طور العديد من الأشخاص مواقع الويب والمنتديات والقوائم البريدية على الإنترنت وجنوا القليل من المال منه.
في وقت لاحق ، بدأت الكثير من الشركات وشعرت أن بإمكانها القيام بعمل أفضل ، لذلك قاموا بإنشاء منصات مرنة وغنية بالميزات وفتحوا الأبواب أمام المزيد من الأشخاص للانضمام.
يشبه الأمر نوعًا ما ، لقد وضعوا الصناديق أمامنا ، ونملأ تلك الصناديق بالكلمات والصور ، ويأتي الناس ليروا ما بداخلها. تطارد هذه الشركات الحجم لأنه بمجرد أن يجتمع عدد كافٍ من الأشخاص ، عادة ما تكون هناك طريقة لكسب المال منها.
لكن ظهور الذكاء الاصطناعي غير هذه الافتراضات.
اليوم ، عندما تكون ChatGPT و Bard و New Bing شائعة ، يمكنهم بسرعة إنشاء قدر كبير من النصوص والصور ، ويمكنهم أيضًا إنشاء الموسيقى ومقاطع الفيديو.
من الناحية الواقعية ، قد يتجاوز إنتاجهم الأخبار والمعلومات ومنصات الترفيه التي نعتمد عليها.
** تغذي إيرادات الإعلانات عددًا كبيرًا من مواقع الأخبار والمعلومات التي يتم إنشاؤها بواسطة الذكاء الاصطناعي **
وفقًا للبيانات الصادرة عن NewsGuard ، التي تتعقب مواقع الأخبار والمعلومات (UAINs) التي تم إنشاؤها بواسطة AI منذ مايو من هذا العام ، يمكن العثور على 25 UAINs جديدة كل أسبوع ، وقد يكون هناك المئات من مواقع المحتوى التي تم إنشاؤها بواسطة AI اليوم.
إذن ما هو الهدف من هذه المواقع المليئة بالكثير من محتوى الذكاء الاصطناعي؟
وأشار NewsGuard إلى أن من النقاط المهمة أنه أصبح مكانًا إعلانيًا للعديد من الشركات ذات العلامات التجارية.
وجد المحللون من خلال التحليل أن الإعلانات الموضوعة على مواقع UAIN هذه يتم إنشاؤها برمجيًا ، مما يعني أن العديد من الشركات المعروفة لا تختار وضع إعلاناتها الخاصة على UAINs ، ولكن يتم تحديد مواضعها بواسطة النظام الإعلاني. يتم تقديم معظم الإعلانات بواسطة إعلانات Google .
تقول NewsGuard إن محلليها أضافوا 217 موقعًا إلى متتبع موقع UAIN على الويب ، ويبدو أن العديد منها ممول بالكامل من الإعلانات الآلية.
نظرًا لأن المواقع يمكنها جني الأموال من خلال الإعلانات الآلية ، فإن لديها حافزًا لنشر المحتوى بشكل متكرر. وجدت الشركة أن أحد مواقع UAIN نشر حوالي 8600 مقالة خلال الأسبوع من 9 يونيو إلى 15 يونيو من هذا العام ، بمعدل 1200 مقالة يوميًا.
في المقابل ، ينشر موقع "نيويورك تايمز" الإخباري حوالي 150 مقالاً في اليوم ، وعدد المحررين والصحفيين الذين يقفون وراءه كبير.
في الواقع ، في دراسة حديثة أجريت في مايو ويونيو من هذا العام ، نظر محللو NewsGuard في مواقع في الولايات المتحدة وألمانيا وفرنسا وإيطاليا ووجدوا أن 393 إعلانًا آليًا من 141 علامة تجارية كبرى ظهرت على 217 موقع UAIN 55 من.
في ظل هذا الاتجاه ، استنادًا إلى عائدات الإعلانات ، يبقى عدد كبير من مواقع الأخبار والمعلومات الجديدة التي تم إنشاؤها بواسطة الذكاء الاصطناعي على قيد الحياة ، مما يؤدي إلى إغراق أماكن مختلفة على الإنترنت.
** يتم "تعميد" موقع الويب القديم بواسطة منظمة العفو الدولية **
بالإضافة إلى ذلك ، فقد تغلغل قدر كبير من المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي في العديد من المجتمعات والأنظمة الأساسية ، مثل LinkedIn يستخدم الذكاء الاصطناعي لتنشيط المستخدمين ؛ ويأمل Snapchat و Instagram أنه عندما لا يتحدث أصدقاؤك ، سيتحدث الروبوت إليك وما إلى ذلك وهلم جرا.
في الوقت نفسه ، تتأثر بعض مواقع الويب بشكل سلبي بـ ChatGPT ، على سبيل المثال ، Stack Overflow ، وهو مجتمع مبرمج معروف ، هو أحد هذه المواقع.
تحقيقا لهذه الغاية ، في وقت سابق من هذا العام ، أصدر Stack Overflow أيضًا بشكل عاجل "حظرًا" ، قائلاً إنه يُحظر استخدام المحتوى الذي تم إنشاؤه بواسطة ChatGPT للإجابة على الأسئلة على Stack Overflow.
لأن:
المساهمات التي تم إنشاؤها بواسطة GPT بشكل عام لا تلبي هذه المعايير وبالتالي لا تساهم في بيئة جديرة بالثقة. عندما ينسخ المستخدم المعلومات ويلصقها في إجابة دون التحقق من صحة الإجابة التي قدمتها GPT ، دون التأكد من الاستشهاد بالمصادر المستخدمة في الإجابة بشكل صحيح (لا توفر GPT هذه الخدمة) ، ودون التحقق من أن الإجابة المقدمة من قبل GPT هي هذه الثقة تنكسر عندما يتم الرد على الأسئلة المطروحة بوضوح ودقة.
ومع ذلك ، فإن مجرد منع التوسع في استخدام الذكاء الاصطناعي ليس هو أصل المشكلة. تخطط Stack Overflow لشحن الشركات مقابل تجريف بياناتها أثناء قيامها ببناء أدوات الذكاء الاصطناعي الخاصة بها لاستخدام الذكاء الاصطناعي. بالإضافة إلى ذلك ، لدى Stack Overflow نفسها خطط لتقديم الخدمات المتعلقة بالذكاء الاصطناعي.
منصة أخرى متأثرة بشدة بالذكاء الاصطناعي هي مجتمع الأسئلة والأجوبة Reddit. "بيانات Reddit قيمة ، لكننا لسنا بحاجة إلى إعطاء كل هذه القيمة لبعض أكبر الشركات في العالم مجانًا" ، عندما قال الرئيس التنفيذي لشركة Reddit ستيف هوفمان ، كان هذا يعني أن الشركة ستفعل شيئًا.
بشكل غير متوقع ، عندما قامت بتحديث سياسة رسوم Reddit API ، من أجل الحصول على المزيد من الدخل منها ، ولجعل بياناتها ذات قيمة معينة ، قام العديد من الوسطاء بحظر منتدى المجتمع للاحتجاج.
أخيرًا ، كمدخل إلى العديد من مواقع الويب ، فإن Google ، أكبر محرك بحث في العالم ، يحمل شريان الحياة لمواقع الويب الحديثة. ومع ذلك ، مدفوعًا باتجاه Bing AI و ChatGPT كمحركات بحث بديلة ، تتخذ Google أيضًا إجراءات. ووفقًا لتقارير وسائل الإعلام ، تسعى Google إلى إنشاء محرك بحث جديد مدفوع بتقنية الذكاء الاصطناعي. ومن السمات الرئيسية للمحرك الجديد أنه "يمكنه تخمين ما يريده المستخدم" ، سيتعلم المحرك ويتنبأ بما يريد المستخدم معرفته بناءً على ما يبحث عنه المستخدم ، وسيوفر قائمة مشتريات محددة مسبقًا وأبحاث ومعلومات أخرى. إذا نفذت Google هذه الخطة حقًا ، فسيكون تأثير الذكاء الاصطناعي على مواقع الويب التقليدية كبيرًا.
** دع الذكاء الاصطناعي يتولى قيادة موقع الويب ، ماذا سيحدث؟ **
ليس هناك شك في أن الذكاء الاصطناعي موجود الآن في كل مكان ، إذا تم تناول جميع المنصات بواسطة الذكاء الاصطناعي ، فماذا سيحدث؟
في هذا الصدد ، أشار Avram Piltch ، رئيس تحرير موقع التكنولوجيا Tom's Hardware ، إلى أنه على الرغم من أن الذكاء الاصطناعي لديه القدرة على إعادة هيكلة النص ، إلا أن الأشخاص هم الذين ينشئون البيانات الأساسية في نهاية المطاف - سواء أكان مراسلًا يختار الهاتف للتحقق من الحقائق ، أو يعاني أحد مستخدمي Reddit من مشاكل في البطارية. يسعدني إخبارك بكيفية إصلاحها.
في المقابل ، غالبًا ما لا تكون المعلومات التي تنتجها نماذج لغة الذكاء الاصطناعي وروبوتات الدردشة صحيحة بالضرورة ، بل والأكثر إزعاجًا هو أنه عندما تكون خاطئة ، غالبًا ما يكون من الصعب العثور على الطريقة الخاطئة. لذلك ، يستغرق الأمر وقتًا وخبرة للتحقق بشكل أكبر.
إذا حل المحتوى الذي تم إنشاؤه آليًا محل تأليف البشر ، على أساس أن البشر فقط هم من يرتكبون الأخطاء ، فإن إضافة الذكاء الاصطناعي نفسها سترتكب أخطاء ، بل وتعيق قدرة البشر على استيعاب المعرفة المهنية إلى حد معين ، ثم تصحيح جماعتنا. سيتم تقليل فرص الأخطاء.
في الوقت نفسه ، أشار مراسل The Verge جيمس فينسنت إلى أن تأثير الذكاء الاصطناعي على الويب ليس بهذه البساطة في التعميم. حتى في الأمثلة القليلة المذكورة أعلاه ، هناك العديد من الآليات المختلفة في اللعبة.
في رأيه ، تميل أكثر المواقع نجاحًا إلى أن تكون تلك التي تستخدم النطاق لصالحها ، إما عن طريق زيادة الروابط الاجتماعية أو اختيار المنتج ، أو عن طريق تصنيف الحشود الهائلة من المعلومات التي تشكل الإنترنت نفسها ، ولكن هذا النطاق يعتمد على عدد كبير من البشر: من خلال خلق قيمة محتملة ، من الواضح أن البشر لا يستطيعون التغلب على الذكاء الاصطناعي عندما يتعلق الأمر بالإنتاج بالجملة.
لكن هل هذا بالضرورة شيء سيء؟
ليس حقًا ، كما يجادل جيمس فينسنت ، "قد يقول البعض إنها الطريقة التي يعمل بها العالم فقط ، ويشيروا إلى أن الويب نفسه يقتل ما حدث من قبل ، غالبًا للأفضل. فالموسوعات المطبوعة ، على سبيل المثال ، كلها منقرضة. تفضل اتساع ويكيبيديا وإمكانية الوصول إليها على سماكة وضمان Encyclopaedia Britannica. كما هو الحال مع كل شيء للكتابة التي تم إنشاؤها بواسطة AI ، هناك طرق لتحسينها أيضًا - من وظائف الاستشهادات المحسنة إلى المزيد من الإشراف البشري. ** أيضًا ، على الرغم من الويب مليء بنفايات الذكاء الاصطناعي ، فقد يكون ذلك مفيدًا ، حيث يحفز تطوير منصات ممولة بشكل أفضل. ** على سبيل المثال ، إذا كان Google Search دائمًا يمنحك نتائج غير مرغوب فيها ، وقد تكون أكثر ميلًا للدفع مقابل مصدر تثق به والوصول إليه مباشرة ".
في الواقع ، التغييرات التي يسببها الذكاء الاصطناعي حاليًا ليست سوى أحدث التغييرات في صراع طويل في تاريخ الويب. في الأساس ، إنها حرب معلومات - من يصنعها ، وكيف يتم الوصول إليها ، ومن الذي يتقاضى المال. لكن مجرد كون القتال مألوفًا لا يعني أنه غير مهم ، ولا يضمن أن الأنظمة اللاحقة ستكون أفضل من نظامنا الحالي. تحاول الويب الجديدة أن تولد ، والقرارات التي نتخذها الآن ستحدد كيفية تطورها.
مرجع:
شاهد النسخة الأصلية
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
منظمة العفو الدولية تقتل الويب القديم؟
المصدر الأصلي: CSDN
مع ظهور أدوات AIGC مثل OpenAI's ChatGPT و Google's Bard ، تم دمج المحتوى الذي يحركه الذكاء الاصطناعي والمعلومات والروبوتات بسرعة في مواقع الويب في العام الماضي.
ومع ذلك ، عندما توفر هذه الأدوات راحة كبيرة وتحسن الكفاءة ، يتبعها أيضًا المستخدمون المزيفون ، والإعلانات غير المرغوب فيها ، والرسائل الخاطئة.
قبل أيام قليلة فقط ، بلغت قيمة شركة IRL (IN REAL LIFE) الناشئة للتطبيقات الاجتماعية 1.7 مليار دولار أمريكي ، وجمعت 170 مليون دولار أمريكي في جولة التمويل C بقيادة Softbank. ونتيجة لذلك ، فإن 95٪ من المستخدمين النشطين شهريًا البالغ عددهم 20 مليون مستخدم هم "روبوتات" ، وفقًا لتحقيق داخلي أجراه المجلس.
أصدرت NewsGuard ، وهي شركة تقدم تقييمات موثوقة لمنافذ الأخبار عبر الإنترنت ، تحليلاً جديدًا يُظهر أنه بفضل الميزانيات الإعلانية للعلامات التجارية العالمية الكبرى مثل عمالقة التكنولوجيا والبنوك ، فإنها تغمر المواقع منخفضة الجودة التي تم إنشاؤها بواسطة الذكاء الاصطناعي بدولارات إعلانية. تلقت مواقع الويب ذات المحتوى المنخفض الجودة الذي تم إنشاؤه بواسطة الذكاء الاصطناعي دعماً مالياً كبيراً ولا تزال قائمة.
وفي هذا الصدد ، خلص مراسل وسائل الإعلام الأجنبية ، جيمس فينسنت ، إلى أنه "في الوقت الحاضر ، تقتل منظمة العفو الدولية الويب القديم ، وولد الويب الجديد بصعوبة". وفي رأيه ، هذا ليس بالضرورة أمرًا سيئًا.
** في غضون دقائق قليلة ، يمكن للذكاء الاصطناعي التوليدي إنشاء الكثير من النصوص والصور **
بشكل عام ، قبل سنوات ، أشارت The Verge إلى أن الويب كان مكانًا للأفراد للإبداع والابتكار ، وقد طور العديد من الأشخاص مواقع الويب والمنتديات والقوائم البريدية على الإنترنت وجنوا القليل من المال منه.
في وقت لاحق ، بدأت الكثير من الشركات وشعرت أن بإمكانها القيام بعمل أفضل ، لذلك قاموا بإنشاء منصات مرنة وغنية بالميزات وفتحوا الأبواب أمام المزيد من الأشخاص للانضمام.
يشبه الأمر نوعًا ما ، لقد وضعوا الصناديق أمامنا ، ونملأ تلك الصناديق بالكلمات والصور ، ويأتي الناس ليروا ما بداخلها. تطارد هذه الشركات الحجم لأنه بمجرد أن يجتمع عدد كافٍ من الأشخاص ، عادة ما تكون هناك طريقة لكسب المال منها.
لكن ظهور الذكاء الاصطناعي غير هذه الافتراضات.
اليوم ، عندما تكون ChatGPT و Bard و New Bing شائعة ، يمكنهم بسرعة إنشاء قدر كبير من النصوص والصور ، ويمكنهم أيضًا إنشاء الموسيقى ومقاطع الفيديو.
من الناحية الواقعية ، قد يتجاوز إنتاجهم الأخبار والمعلومات ومنصات الترفيه التي نعتمد عليها.
** تغذي إيرادات الإعلانات عددًا كبيرًا من مواقع الأخبار والمعلومات التي يتم إنشاؤها بواسطة الذكاء الاصطناعي **
وفقًا للبيانات الصادرة عن NewsGuard ، التي تتعقب مواقع الأخبار والمعلومات (UAINs) التي تم إنشاؤها بواسطة AI منذ مايو من هذا العام ، يمكن العثور على 25 UAINs جديدة كل أسبوع ، وقد يكون هناك المئات من مواقع المحتوى التي تم إنشاؤها بواسطة AI اليوم.
إذن ما هو الهدف من هذه المواقع المليئة بالكثير من محتوى الذكاء الاصطناعي؟
وأشار NewsGuard إلى أن من النقاط المهمة أنه أصبح مكانًا إعلانيًا للعديد من الشركات ذات العلامات التجارية.
وجد المحللون من خلال التحليل أن الإعلانات الموضوعة على مواقع UAIN هذه يتم إنشاؤها برمجيًا ، مما يعني أن العديد من الشركات المعروفة لا تختار وضع إعلاناتها الخاصة على UAINs ، ولكن يتم تحديد مواضعها بواسطة النظام الإعلاني. يتم تقديم معظم الإعلانات بواسطة إعلانات Google .
تقول NewsGuard إن محلليها أضافوا 217 موقعًا إلى متتبع موقع UAIN على الويب ، ويبدو أن العديد منها ممول بالكامل من الإعلانات الآلية.
نظرًا لأن المواقع يمكنها جني الأموال من خلال الإعلانات الآلية ، فإن لديها حافزًا لنشر المحتوى بشكل متكرر. وجدت الشركة أن أحد مواقع UAIN نشر حوالي 8600 مقالة خلال الأسبوع من 9 يونيو إلى 15 يونيو من هذا العام ، بمعدل 1200 مقالة يوميًا.
في المقابل ، ينشر موقع "نيويورك تايمز" الإخباري حوالي 150 مقالاً في اليوم ، وعدد المحررين والصحفيين الذين يقفون وراءه كبير.
في الواقع ، في دراسة حديثة أجريت في مايو ويونيو من هذا العام ، نظر محللو NewsGuard في مواقع في الولايات المتحدة وألمانيا وفرنسا وإيطاليا ووجدوا أن 393 إعلانًا آليًا من 141 علامة تجارية كبرى ظهرت على 217 موقع UAIN 55 من.
في ظل هذا الاتجاه ، استنادًا إلى عائدات الإعلانات ، يبقى عدد كبير من مواقع الأخبار والمعلومات الجديدة التي تم إنشاؤها بواسطة الذكاء الاصطناعي على قيد الحياة ، مما يؤدي إلى إغراق أماكن مختلفة على الإنترنت.
** يتم "تعميد" موقع الويب القديم بواسطة منظمة العفو الدولية **
بالإضافة إلى ذلك ، فقد تغلغل قدر كبير من المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي في العديد من المجتمعات والأنظمة الأساسية ، مثل LinkedIn يستخدم الذكاء الاصطناعي لتنشيط المستخدمين ؛ ويأمل Snapchat و Instagram أنه عندما لا يتحدث أصدقاؤك ، سيتحدث الروبوت إليك وما إلى ذلك وهلم جرا.
في الوقت نفسه ، تتأثر بعض مواقع الويب بشكل سلبي بـ ChatGPT ، على سبيل المثال ، Stack Overflow ، وهو مجتمع مبرمج معروف ، هو أحد هذه المواقع.
لأن:
ومع ذلك ، فإن مجرد منع التوسع في استخدام الذكاء الاصطناعي ليس هو أصل المشكلة. تخطط Stack Overflow لشحن الشركات مقابل تجريف بياناتها أثناء قيامها ببناء أدوات الذكاء الاصطناعي الخاصة بها لاستخدام الذكاء الاصطناعي. بالإضافة إلى ذلك ، لدى Stack Overflow نفسها خطط لتقديم الخدمات المتعلقة بالذكاء الاصطناعي.
منصة أخرى متأثرة بشدة بالذكاء الاصطناعي هي مجتمع الأسئلة والأجوبة Reddit. "بيانات Reddit قيمة ، لكننا لسنا بحاجة إلى إعطاء كل هذه القيمة لبعض أكبر الشركات في العالم مجانًا" ، عندما قال الرئيس التنفيذي لشركة Reddit ستيف هوفمان ، كان هذا يعني أن الشركة ستفعل شيئًا.
بشكل غير متوقع ، عندما قامت بتحديث سياسة رسوم Reddit API ، من أجل الحصول على المزيد من الدخل منها ، ولجعل بياناتها ذات قيمة معينة ، قام العديد من الوسطاء بحظر منتدى المجتمع للاحتجاج.
أخيرًا ، كمدخل إلى العديد من مواقع الويب ، فإن Google ، أكبر محرك بحث في العالم ، يحمل شريان الحياة لمواقع الويب الحديثة. ومع ذلك ، مدفوعًا باتجاه Bing AI و ChatGPT كمحركات بحث بديلة ، تتخذ Google أيضًا إجراءات. ووفقًا لتقارير وسائل الإعلام ، تسعى Google إلى إنشاء محرك بحث جديد مدفوع بتقنية الذكاء الاصطناعي. ومن السمات الرئيسية للمحرك الجديد أنه "يمكنه تخمين ما يريده المستخدم" ، سيتعلم المحرك ويتنبأ بما يريد المستخدم معرفته بناءً على ما يبحث عنه المستخدم ، وسيوفر قائمة مشتريات محددة مسبقًا وأبحاث ومعلومات أخرى. إذا نفذت Google هذه الخطة حقًا ، فسيكون تأثير الذكاء الاصطناعي على مواقع الويب التقليدية كبيرًا.
** دع الذكاء الاصطناعي يتولى قيادة موقع الويب ، ماذا سيحدث؟ **
ليس هناك شك في أن الذكاء الاصطناعي موجود الآن في كل مكان ، إذا تم تناول جميع المنصات بواسطة الذكاء الاصطناعي ، فماذا سيحدث؟
في هذا الصدد ، أشار Avram Piltch ، رئيس تحرير موقع التكنولوجيا Tom's Hardware ، إلى أنه على الرغم من أن الذكاء الاصطناعي لديه القدرة على إعادة هيكلة النص ، إلا أن الأشخاص هم الذين ينشئون البيانات الأساسية في نهاية المطاف - سواء أكان مراسلًا يختار الهاتف للتحقق من الحقائق ، أو يعاني أحد مستخدمي Reddit من مشاكل في البطارية. يسعدني إخبارك بكيفية إصلاحها.
في المقابل ، غالبًا ما لا تكون المعلومات التي تنتجها نماذج لغة الذكاء الاصطناعي وروبوتات الدردشة صحيحة بالضرورة ، بل والأكثر إزعاجًا هو أنه عندما تكون خاطئة ، غالبًا ما يكون من الصعب العثور على الطريقة الخاطئة. لذلك ، يستغرق الأمر وقتًا وخبرة للتحقق بشكل أكبر.
إذا حل المحتوى الذي تم إنشاؤه آليًا محل تأليف البشر ، على أساس أن البشر فقط هم من يرتكبون الأخطاء ، فإن إضافة الذكاء الاصطناعي نفسها سترتكب أخطاء ، بل وتعيق قدرة البشر على استيعاب المعرفة المهنية إلى حد معين ، ثم تصحيح جماعتنا. سيتم تقليل فرص الأخطاء.
في رأيه ، تميل أكثر المواقع نجاحًا إلى أن تكون تلك التي تستخدم النطاق لصالحها ، إما عن طريق زيادة الروابط الاجتماعية أو اختيار المنتج ، أو عن طريق تصنيف الحشود الهائلة من المعلومات التي تشكل الإنترنت نفسها ، ولكن هذا النطاق يعتمد على عدد كبير من البشر: من خلال خلق قيمة محتملة ، من الواضح أن البشر لا يستطيعون التغلب على الذكاء الاصطناعي عندما يتعلق الأمر بالإنتاج بالجملة.
لكن هل هذا بالضرورة شيء سيء؟
ليس حقًا ، كما يجادل جيمس فينسنت ، "قد يقول البعض إنها الطريقة التي يعمل بها العالم فقط ، ويشيروا إلى أن الويب نفسه يقتل ما حدث من قبل ، غالبًا للأفضل. فالموسوعات المطبوعة ، على سبيل المثال ، كلها منقرضة. تفضل اتساع ويكيبيديا وإمكانية الوصول إليها على سماكة وضمان Encyclopaedia Britannica. كما هو الحال مع كل شيء للكتابة التي تم إنشاؤها بواسطة AI ، هناك طرق لتحسينها أيضًا - من وظائف الاستشهادات المحسنة إلى المزيد من الإشراف البشري. ** أيضًا ، على الرغم من الويب مليء بنفايات الذكاء الاصطناعي ، فقد يكون ذلك مفيدًا ، حيث يحفز تطوير منصات ممولة بشكل أفضل. ** على سبيل المثال ، إذا كان Google Search دائمًا يمنحك نتائج غير مرغوب فيها ، وقد تكون أكثر ميلًا للدفع مقابل مصدر تثق به والوصول إليه مباشرة ".
في الواقع ، التغييرات التي يسببها الذكاء الاصطناعي حاليًا ليست سوى أحدث التغييرات في صراع طويل في تاريخ الويب. في الأساس ، إنها حرب معلومات - من يصنعها ، وكيف يتم الوصول إليها ، ومن الذي يتقاضى المال. لكن مجرد كون القتال مألوفًا لا يعني أنه غير مهم ، ولا يضمن أن الأنظمة اللاحقة ستكون أفضل من نظامنا الحالي. تحاول الويب الجديدة أن تولد ، والقرارات التي نتخذها الآن ستحدد كيفية تطورها.
مرجع: