* مصدر الصورة: تم إنشاؤه بواسطة أداة Unbounded AI *
مقدمة
في وقت مبكر من الأيام التي كان فيها ChatGPT شائعًا، كان هناك حديث عن أن الذكاء الاصطناعي سيحل محل العمل البشري عاجلاً أم آجلاً. وفجأة، أصبح الناس في مختلف الصناعات يتحدثون عن الذكاء الاصطناعي، خوفًا من أن يؤدي تطوره السريع إلى استبدال وظائفهم بشكل مباشر وعدم تركهم في أي مكان يذهبون إليه. يتم تضمين المحامين أيضا. في الواقع، يتضمن عمل المحامي أيضًا العديد من الأمور الإدارية، فحتى في المجال المهني هناك العديد من المهام المتكررة والمملة والقليلة الصعوبة، لذلك تكهن العديد من الأشخاص في الصناعة عما إذا كان سيكون هناك يومًا ما "، الذي خدم الجميع أصبح محاميًا يعمل بالذكاء الاصطناعي. في ظل المعالجة عالية الكفاءة للذكاء الاصطناعي، كان لا بد من تسريحنا مقدمًا.
من الصعب بالفعل الإجابة على هذا السؤال ، كما أن قابلية التوسع العالية لتقنية الذكاء الاصطناعي مثيرة للإعجاب. لكن الآن ، لا يزال بإمكان فريق الأخت سا إعطاء إجابة واضحة: لا. فيما يتعلق بهذا الأمر، في هذا العام فقط، أخبر زملاء من شركة المحاماة Levidow وLevidow & Oberman في الولايات المتحدة الجميع بالإجابة بناءً على تجربتهم الشخصية: **على الأقل اليوم، الذكاء الاصطناعي بعيد عن أن يكون قادرًا على استبدال عمل المحامين. استخدام الذكاء الاصطناعي على العكس من ذلك ، قد يسبب الكثير من المتاعب لمحامي الأصدقاء. **
"حقيقة مثيرة للاهتمام" - تم تغريم استخدام ChatGPT لصياغة المستندات
يمكن إرجاع سبب القضية إلى شهر مارس من هذا العام.قام روبرتو ماتا بدعوى في المحكمة بسبب نزاع مع شركة طيران في عام 2019. واعتقدت شركة الطيران أن القضية قد مرت بالتقادم واقترحت أن يسحب القاضي القضية . في هذا الصدد ، اعتقد المحاميان بيتر لودوكا وستيفن شوارتز من شركة ليفيدو وليفيدو وأوبرمان التي استأجرها روبرتو ماتا أن القضية لم تتجاوز قانون التقادم ويجب محاكمتها ، لذلك قدموا رأيًا إلى المحكمة. وهذه الوثيقة هي التي سببت لهم مشاكل كبيرة.
كما نعلم جميعًا ، فإن الولايات المتحدة ، كدولة من دول السوابق القضائية ، تعلق أهمية كبيرة على الإشارة إلى السوابق. وقد استشهد بيتر لودوكا وستيفن شوارتز بعدد كبير من الحالات في محاولة لإثبات وجهة نظرهم. في الأصل ، تم التعامل مع الأمر بشكل جيد ، وكان الرأي مكتوبًا بشكل جيد ، لكنني التقيت بالقاضي المطلع والجاد والمسؤول ، كيفن كاستل. بعد قراءة الفتوى ، شعر القاضي كيفين كاستل بالارتباك الشديد ، وبعد بحث دقيق أكد أخيرًا أن بعض القضايا المذكورة فيه لم تكن موجودة بالفعل. في مواجهة هذا الموقف ، قال المحامي ستيفن شوارتز إنه استخدم الذكاء الاصطناعي فقط للمساعدة في كتابة المستندات. لقد وثقوا في منظمة العفو الدولية ، لذلك لم يؤكدوا صحة القضية. وبدلاً من ذلك ، اعتقدوا أن السبب هو فقط أن منظمة العفو الدولية وجدت حالات لم أكن أعرف عن. وقالوا إنهم لم يتعمدوا اختلاق القضية لخداع المحكمة.
ومع ذلك، **في 22 يونيو/حزيران، أصدرت المحكمة حكمًا، حيث وجدت أن بيتر لودوكا وستيفن شوارتز ومكتب المحاماة الخاص بهم قد قدموا معلومات كاذبة إلى المحكمة بسبب السلوك السيئ وفرضت غرامة قدرها 5000 دولار. ** منذ ذلك الحين، أصدرت شركة المحاماة بيانًا جاء فيه: "لقد ارتكبنا خطأً بحسن نية وفشلنا في توقع أن ChatGPT قد يختلق سوابق."
مسؤولية المحامي عن البيانات الكاذبة——التعامل مع بلدي
** "الذكاء الاصطناعي سيتحدث عن الهراء بطريقة جادة" ** ، هذه وجهة نظر طرحها فريق Sister Sa في وقت مبكر جدًا. الجوهر هو أنه في هذه المرحلة ، لا يمتلك الذكاء الاصطناعي القدرة على الحكم على القيمة والتمييز بين صواب وخطأ. ما هي المواد التي "تغذيها"؟ إذا كانت هناك معلومات خاطئة في هذه المواد ، فستكون نتائج مخرجات الذكاء الاصطناعي تحتوي على معلومات خاطئة. وإذا كانت هذه المواد لها اتجاهات قيمة ، فإن نتائج مخرجات الذكاء الاصطناعي سيكون لها اتجاهات قيمة. ** والنتيجة هي أنه بالنسبة لبعض المشكلات التي تتطلب تحليلًا حقيقيًا وخاطئًا وأحكامًا قيمية ، لا يمكن للذكاء الاصطناعي تحسين كفاءتنا ، ولكنه سيؤدي إلى قضاء المزيد من الوقت في تحديد "ما إذا كان الذكاء الاصطناعي خاطئًا أم لا". ** ولهذا السبب كتب ChatGPT بالخطأ عدة حالات غير موجودة في الحالات المذكورة أعلاه وأصر على أن الحالات موجودة.
الحالات المذكورة أعلاه حدثت في الخارج، لذا يبدو أننا لا نزال بعيدين نسبياً. لذا، السؤال هو، إذا استخدم محامٍ في الصين الذكاء الاصطناعي لكتابة رأي قانوني وتقديمه إلى المحكمة، فما نوع المسؤولية التي سيواجهها؟ **
ووفقاً للمادة 3 من "قانون المحاماة"، "يجب على المحامي الالتزام بالدستور والقانون، وأن يلتزم بأخلاقيات مهنة المحامين وانضباط ممارسته. ويجب أن تكون ممارسة المحامي على أساس الحقائق والقانون كمعيار". مبدأ هام في الممارسة القانونية. **وبناءً على ذلك فإن قواعد ممارسة المحامين وفي جوهرها "قانون المحامين" تفرض قيوداً صارمة على تصرفات المحامين المتمثلة في تقديم معلومات كاذبة، أو الإدلاء ببيانات كاذبة، أو تقديم أدلة كاذبة.
وفقًا لأحكام المادة 40 من "قانون المحاماة" ، "لا يجوز للمحامين الانخراط في الأعمال التالية في ممارسة أنشطتهم: (1) قبول التكليف بشكل خاص ، أو تحصيل الرسوم ، أو قبول ممتلكات العملاء أو المزايا الأخرى ؛ (3) قبول ممتلكات أو مصالح أخرى من الطرف الآخر ، والتواطؤ بشكل ضار مع الطرف الآخر أو طرف ثالث ، وانتهاك حقوق ومصالح العميل ؛ (4) مقابلة القضاة والمدعين العامين والمحكمين والأطراف الأخرى المخالفة للوائح الموظفين المعنيين ؛ (5) رشوة القضاة والمدعين العامين والمحكمين وغيرهم من الموظفين ذوي الصلة ، وتقديم رشاوى أو تحريض الأطراف أو حثهم على الرشوة ، أو التأثير على القضاة والمدعين العامين والمحكمين وغيرهم من الموظفين المعنيين بطرق أخرى غير مناسبة التعامل مع القضايا وفقًا للقانون ؛ ** (6) تقديم أدلة كاذبة عن عمد أو تهديد أو تحريض الآخرين على تقديم أدلة كاذبة لمنع الطرف الآخر من الحصول بشكل قانوني على الأدلة ؛ ** (7) تحريض الأطراف وتحريضهم على اتخاذ وسائل غير قانونية مثل الإخلال بالنظام العام وتعريض الأمن العام للخطر (8). أمر المحاكم وهيئات التحكيم ، والتدخل في السير العادي لأنشطة التقاضي والتحكيم. "في الوقت نفسه ، وفقًا للمادة 49 ، إذا حدث السلوك المذكور أعلاه ، فإن الحكومة الشعبية للمقاطعة لمدينة مقسمة إلى مناطق أو البلدية الخاضعة مباشرة للحكومة المركزية يجب أن تفرض الدائرة الإدارية القضائية عقوبة وقف الممارسة لمدة لا تقل عن ستة أشهر ولكن ليس أكثر من عام واحد ، ويمكن أن تفرض غرامة لا تزيد عن 50000 يوان ؛ إذا كان هناك غير قانوني الدخل ، يجب مصادرة الدخل غير القانوني ؛ إذا كانت الظروف خطيرة ، فإن الإدارة القضائية للحكومة الشعبية للمقاطعة أو منطقة الحكم الذاتي أو البلدية التابعة مباشرة للحكومة المركزية تلغي شهادة ممارسة محاميه ؛ إذا تم تشكيل جريمة وسوف يتم التحقيق معه للمسؤولية الجنائية وفقا للقانون ". بالإضافة إلى ذلك ، تنص المادة 22 من قانون الأخلاقيات المهنية وانضباط الممارسة للمحامين على أنه "يجب على المحامين الحصول على الأدلة وفقًا للقانون ، ** عدم تزوير الأدلة ** ، لا يشجع العملاء على تزوير الأدلة ، ** الإدلاء بشهادة زور ** ، لا تعني ، تحريض أو تهديد الآخرين على تقديم أدلة كاذبة ".
** لذلك ، فإن مفتاح السلوك المذكور أعلاه هو ما إذا كان يمكن تحديده على أنه "تقديم أدلة كاذبة عن عمد" ** ، بمعنى آخر ، ما إذا كان المحامي الذي قدم المواد أو المعلومات يعلم أو كان ينبغي أن يعرف أن مادة الأدلة كانت خاطئة شهادة. نظرًا لأن المحامي كان يعلم بوضوح أن المادة تم إنشاؤها باستخدام الذكاء الاصطناعي عند تقديم الإفادة ، فقد كان هو نفسه ملزمًا بفحص ما إذا كان الدليل صحيحًا إلى حد معين. يقرر القاضي أو القسم المعني أن المحامي نفسه لديه معرفة ذاتية ، و ومن ثم يعتبر الفعل فعل "تقديم أدلة كاذبة عن عمد". وتزوير الأدلة وعرقلة الشهادة ".
** باختصار، بالنسبة للمحامين، قد لا يكون استخدام الذكاء الاصطناعي لكتابة المستندات أمرًا "يوفر الوقت والجهد". **
ليس المحامون فقط - مخاطر تقديم مواد ومعلومات كاذبة
** في الواقع، ليس المحامون فقط، ولكن أيضًا الأشخاص العاديين، الذين يستخدمون الذكاء الاصطناعي لإنشاء مواد كاذبة في مناسبات معينة سيتحملون أيضًا مسؤوليات معينة، كما أن الحالات الخطيرة ستتعرض أيضًا لخطر المسؤولية الجنائية. **
على سبيل المثال ، إذا كان الممثل كسولًا في طلب الدواء والتسجيل ، ويستخدم الذكاء الاصطناعي لإنتاج الشهادات والبيانات والمواد المطلوبة ، وما إلى ذلك ، ولكن في النهاية الشهادة والبيانات والمواد خاطئة ، فعندئذ إذا كانت المتطلبات الأخرى اجتمع الفاعل وقد تشكل "جريمة عرقلة إدارة المخدرات" في المادة 142 من "القانون الجنائي". مثال آخر هو أنه من أجل توفير الوقت ، يستخدم الجاني الذكاء الاصطناعي لإنتاج مستندات الإصدار مثل النشرات ، واستمارات الاشتراك ، وطرق عرض سندات الشركات والشركات ، وبعض المعلومات الكاذبة الواردة فيها ، والتي قد تشكل أيضًا "جريمة الاحتيال "إصدار الأوراق المالية" في المادة 160. . مثال آخر هو أن الفاعل يستخدم الذكاء الاصطناعي لجمع ونشر المعلومات ، وهذه المعلومات هي معلومات خاطئة تؤثر على تداول الأوراق المالية والعقود الآجلة ، أو الأخطار الكاذبة والأوبئة والكوارث وحالات الشرطة ، ثم سلوك الممثل قد يشكل انتهاكًا للمادة 180 - جريمة "اختلاق ونشر معلومات كاذبة عن تداول الأوراق المالية والعقود الآجلة" الواردة في الفقرة الأولى من المادة 11 أو "جريمة تلفيق ونشر معلومات كاذبة عمداً" في الفقرة الثانية من المادة 291-1.
بالإضافة إلى ذلك ، بالنسبة لبعض الموضوعات المحددة ، مثل موظفي المنظمات الوسيطة الذين يقومون بتقييم الأصول ، والتحقق من رأس المال ، والتحقق ، والمحاسبة ، والتدقيق ، والخدمات القانونية ، والرعاية ، وتقييم السلامة ، وتقييم الأثر البيئي ، والرصد البيئي ، وما إلى ذلك ، إذا كانوا يستخدمون الذكاء الاصطناعي في الكتابة إذا تم اعتبار المستند الناتج على أنه مستند شهادة مزور ، فقد يُشتبه في ارتكابه "جريمة تقديم مستندات تصديق مزورة". ** وتجدر الإشارة إلى أنه حتى لو لم يتمكن من إثبات نيته الذاتية ، إذا تم اعتبار أنه يكون غير مسؤول بشكل خطير ، فهناك إهمال جسيم ، ثم قد لا يزال يشكل "جريمة عدم الدقة الكبيرة في إصدار وثائق التصديق" ، ومن ثم يعاقب. **
ويمكن ملاحظة أن استخدام الذكاء الاصطناعي لكتابة المستندات ليس سيئًا للمحامين فحسب، بل أيضًا للأشخاص العاديين.
** كيف تحمي حقوقك **
ولذلك تنشأ مشكلة جديدة، إذا واجه مستخدم خدمة الذكاء الاصطناعي هراء الذكاء الاصطناعي التوليدي، لكنه فشل في التعرف عليه وبالتالي تسبب خسائر، فهل يمكنه التعافي من مزود خدمة الذكاء الاصطناعي؟
وفقًا للفقرة الأولى من المادة 7 من "قانون حماية حقوق المستهلك"، "يحق للمستهلكين انتهاك السلامة الشخصية والممتلكات عند الشراء واستخدام السلع وتلقي الخدمات." وفي الوقت نفسه، غالبًا ما يكون مقدمو خدمات الذكاء الاصطناعي إلكترونيين. وبالتالي، فإن مشغلي التجارة، وفقًا لأحكام المادة 74 من "قانون التجارة الإلكترونية"، "مشغل التجارة الإلكترونية الذي يبيع سلعًا أو يقدم خدمات، أو يفشل في أداء الالتزامات التعاقدية أو يؤدي التزامات تعاقدية لا تتوافق مع الاتفاقية، أو يتسبب في ضرر للآخرين، يكون مسؤولاً عن الأضرار وفقًا للقانون. المسؤولية المدنية." وبعبارة أخرى، يمكن للمستخدمين طلب التعويض من مقدمي خدمات الذكاء الاصطناعي وفقًا لأحكام هذين القانونين.
ومع ذلك، تجدر الإشارة إلى أن مقدمي خدمات الذكاء الاصطناعي ليسوا جميعهم "أغبياء"، فمن الممكن تمامًا أن ينصوا على مثل هذه المواقف في اتفاقية المستخدم أو النصوص ذات الصلة، مثل عدم ضمان صحة محتوى المخرجات. لا يمكن ضمان صحة المحتوى، وهذا النوع من الاتفاق معقول تمامًا، بمعنى آخر، لقد حذر التاجر المستخدم بالفعل من المخاطر قبل تقديم الخدمة، ويقع سلوك استخدام المستخدم ضمن "المسؤولية" تجاه جهة معينة. المدى. الفئة.
ومع ذلك، ينبغي أن يكون واضحا أن مثل هذه الاتفاقيات هي في الواقع شروط قياسية. ووفقا لأحكام القانون المدني وقانون حماية حقوق ومصالح المستهلك، يجب على مقدمي الخدمات "لفت انتباه المستهلكين إلى الكمية والجودة والسعر". أو الرسوم، وفترة الأداء وطريقة الأداء، واحتياطات السلامة وتحذيرات المخاطر، وخدمة ما بعد البيع، والمسؤولية المدنية والمحتويات الأخرى التي لها مصلحة كبيرة في المستهلك، وشرحها وفقًا لمتطلبات المستهلك"، وإلا فإن المستخدم لديه الحق في وقيل إن هذا الشرط ليس جزءا من العقد.
** اكتب في النهاية **
تكمن وراء انتشار تكنولوجيا الذكاء الاصطناعي مخاطر قانونية غير مرئية. "لقد توسعت هذه المخاطر القانونية بسبب عدم وجود لوائح محددة وموجهة. يجب عليك توخي الحذر في تقديم الخدمات واستخدامها. يجب على القراء والأصدقاء أن يضعوا الامتثال في الاعتبار وأن يكونوا حذرين بشأن مخرجات الذكاء الاصطناعي الخالية من المخاطر.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
لقد حان طفرة الذكاء الاصطناعي، والمحامون أيضا يعانون؟
مقدمة
في وقت مبكر من الأيام التي كان فيها ChatGPT شائعًا، كان هناك حديث عن أن الذكاء الاصطناعي سيحل محل العمل البشري عاجلاً أم آجلاً. وفجأة، أصبح الناس في مختلف الصناعات يتحدثون عن الذكاء الاصطناعي، خوفًا من أن يؤدي تطوره السريع إلى استبدال وظائفهم بشكل مباشر وعدم تركهم في أي مكان يذهبون إليه. يتم تضمين المحامين أيضا. في الواقع، يتضمن عمل المحامي أيضًا العديد من الأمور الإدارية، فحتى في المجال المهني هناك العديد من المهام المتكررة والمملة والقليلة الصعوبة، لذلك تكهن العديد من الأشخاص في الصناعة عما إذا كان سيكون هناك يومًا ما "، الذي خدم الجميع أصبح محاميًا يعمل بالذكاء الاصطناعي. في ظل المعالجة عالية الكفاءة للذكاء الاصطناعي، كان لا بد من تسريحنا مقدمًا.
من الصعب بالفعل الإجابة على هذا السؤال ، كما أن قابلية التوسع العالية لتقنية الذكاء الاصطناعي مثيرة للإعجاب. لكن الآن ، لا يزال بإمكان فريق الأخت سا إعطاء إجابة واضحة: لا. فيما يتعلق بهذا الأمر، في هذا العام فقط، أخبر زملاء من شركة المحاماة Levidow وLevidow & Oberman في الولايات المتحدة الجميع بالإجابة بناءً على تجربتهم الشخصية: **على الأقل اليوم، الذكاء الاصطناعي بعيد عن أن يكون قادرًا على استبدال عمل المحامين. استخدام الذكاء الاصطناعي على العكس من ذلك ، قد يسبب الكثير من المتاعب لمحامي الأصدقاء. **
"حقيقة مثيرة للاهتمام" - تم تغريم استخدام ChatGPT لصياغة المستندات
يمكن إرجاع سبب القضية إلى شهر مارس من هذا العام.قام روبرتو ماتا بدعوى في المحكمة بسبب نزاع مع شركة طيران في عام 2019. واعتقدت شركة الطيران أن القضية قد مرت بالتقادم واقترحت أن يسحب القاضي القضية . في هذا الصدد ، اعتقد المحاميان بيتر لودوكا وستيفن شوارتز من شركة ليفيدو وليفيدو وأوبرمان التي استأجرها روبرتو ماتا أن القضية لم تتجاوز قانون التقادم ويجب محاكمتها ، لذلك قدموا رأيًا إلى المحكمة. وهذه الوثيقة هي التي سببت لهم مشاكل كبيرة.
كما نعلم جميعًا ، فإن الولايات المتحدة ، كدولة من دول السوابق القضائية ، تعلق أهمية كبيرة على الإشارة إلى السوابق. وقد استشهد بيتر لودوكا وستيفن شوارتز بعدد كبير من الحالات في محاولة لإثبات وجهة نظرهم. في الأصل ، تم التعامل مع الأمر بشكل جيد ، وكان الرأي مكتوبًا بشكل جيد ، لكنني التقيت بالقاضي المطلع والجاد والمسؤول ، كيفن كاستل. بعد قراءة الفتوى ، شعر القاضي كيفين كاستل بالارتباك الشديد ، وبعد بحث دقيق أكد أخيرًا أن بعض القضايا المذكورة فيه لم تكن موجودة بالفعل. في مواجهة هذا الموقف ، قال المحامي ستيفن شوارتز إنه استخدم الذكاء الاصطناعي فقط للمساعدة في كتابة المستندات. لقد وثقوا في منظمة العفو الدولية ، لذلك لم يؤكدوا صحة القضية. وبدلاً من ذلك ، اعتقدوا أن السبب هو فقط أن منظمة العفو الدولية وجدت حالات لم أكن أعرف عن. وقالوا إنهم لم يتعمدوا اختلاق القضية لخداع المحكمة.
ومع ذلك، **في 22 يونيو/حزيران، أصدرت المحكمة حكمًا، حيث وجدت أن بيتر لودوكا وستيفن شوارتز ومكتب المحاماة الخاص بهم قد قدموا معلومات كاذبة إلى المحكمة بسبب السلوك السيئ وفرضت غرامة قدرها 5000 دولار. ** منذ ذلك الحين، أصدرت شركة المحاماة بيانًا جاء فيه: "لقد ارتكبنا خطأً بحسن نية وفشلنا في توقع أن ChatGPT قد يختلق سوابق."
مسؤولية المحامي عن البيانات الكاذبة——التعامل مع بلدي
** "الذكاء الاصطناعي سيتحدث عن الهراء بطريقة جادة" ** ، هذه وجهة نظر طرحها فريق Sister Sa في وقت مبكر جدًا. الجوهر هو أنه في هذه المرحلة ، لا يمتلك الذكاء الاصطناعي القدرة على الحكم على القيمة والتمييز بين صواب وخطأ. ما هي المواد التي "تغذيها"؟ إذا كانت هناك معلومات خاطئة في هذه المواد ، فستكون نتائج مخرجات الذكاء الاصطناعي تحتوي على معلومات خاطئة. وإذا كانت هذه المواد لها اتجاهات قيمة ، فإن نتائج مخرجات الذكاء الاصطناعي سيكون لها اتجاهات قيمة. ** والنتيجة هي أنه بالنسبة لبعض المشكلات التي تتطلب تحليلًا حقيقيًا وخاطئًا وأحكامًا قيمية ، لا يمكن للذكاء الاصطناعي تحسين كفاءتنا ، ولكنه سيؤدي إلى قضاء المزيد من الوقت في تحديد "ما إذا كان الذكاء الاصطناعي خاطئًا أم لا". ** ولهذا السبب كتب ChatGPT بالخطأ عدة حالات غير موجودة في الحالات المذكورة أعلاه وأصر على أن الحالات موجودة.
الحالات المذكورة أعلاه حدثت في الخارج، لذا يبدو أننا لا نزال بعيدين نسبياً. لذا، السؤال هو، إذا استخدم محامٍ في الصين الذكاء الاصطناعي لكتابة رأي قانوني وتقديمه إلى المحكمة، فما نوع المسؤولية التي سيواجهها؟ **
ووفقاً للمادة 3 من "قانون المحاماة"، "يجب على المحامي الالتزام بالدستور والقانون، وأن يلتزم بأخلاقيات مهنة المحامين وانضباط ممارسته. ويجب أن تكون ممارسة المحامي على أساس الحقائق والقانون كمعيار". مبدأ هام في الممارسة القانونية. **وبناءً على ذلك فإن قواعد ممارسة المحامين وفي جوهرها "قانون المحامين" تفرض قيوداً صارمة على تصرفات المحامين المتمثلة في تقديم معلومات كاذبة، أو الإدلاء ببيانات كاذبة، أو تقديم أدلة كاذبة.
وفقًا لأحكام المادة 40 من "قانون المحاماة" ، "لا يجوز للمحامين الانخراط في الأعمال التالية في ممارسة أنشطتهم: (1) قبول التكليف بشكل خاص ، أو تحصيل الرسوم ، أو قبول ممتلكات العملاء أو المزايا الأخرى ؛ (3) قبول ممتلكات أو مصالح أخرى من الطرف الآخر ، والتواطؤ بشكل ضار مع الطرف الآخر أو طرف ثالث ، وانتهاك حقوق ومصالح العميل ؛ (4) مقابلة القضاة والمدعين العامين والمحكمين والأطراف الأخرى المخالفة للوائح الموظفين المعنيين ؛ (5) رشوة القضاة والمدعين العامين والمحكمين وغيرهم من الموظفين ذوي الصلة ، وتقديم رشاوى أو تحريض الأطراف أو حثهم على الرشوة ، أو التأثير على القضاة والمدعين العامين والمحكمين وغيرهم من الموظفين المعنيين بطرق أخرى غير مناسبة التعامل مع القضايا وفقًا للقانون ؛ ** (6) تقديم أدلة كاذبة عن عمد أو تهديد أو تحريض الآخرين على تقديم أدلة كاذبة لمنع الطرف الآخر من الحصول بشكل قانوني على الأدلة ؛ ** (7) تحريض الأطراف وتحريضهم على اتخاذ وسائل غير قانونية مثل الإخلال بالنظام العام وتعريض الأمن العام للخطر (8). أمر المحاكم وهيئات التحكيم ، والتدخل في السير العادي لأنشطة التقاضي والتحكيم. "في الوقت نفسه ، وفقًا للمادة 49 ، إذا حدث السلوك المذكور أعلاه ، فإن الحكومة الشعبية للمقاطعة لمدينة مقسمة إلى مناطق أو البلدية الخاضعة مباشرة للحكومة المركزية يجب أن تفرض الدائرة الإدارية القضائية عقوبة وقف الممارسة لمدة لا تقل عن ستة أشهر ولكن ليس أكثر من عام واحد ، ويمكن أن تفرض غرامة لا تزيد عن 50000 يوان ؛ إذا كان هناك غير قانوني الدخل ، يجب مصادرة الدخل غير القانوني ؛ إذا كانت الظروف خطيرة ، فإن الإدارة القضائية للحكومة الشعبية للمقاطعة أو منطقة الحكم الذاتي أو البلدية التابعة مباشرة للحكومة المركزية تلغي شهادة ممارسة محاميه ؛ إذا تم تشكيل جريمة وسوف يتم التحقيق معه للمسؤولية الجنائية وفقا للقانون ". بالإضافة إلى ذلك ، تنص المادة 22 من قانون الأخلاقيات المهنية وانضباط الممارسة للمحامين على أنه "يجب على المحامين الحصول على الأدلة وفقًا للقانون ، ** عدم تزوير الأدلة ** ، لا يشجع العملاء على تزوير الأدلة ، ** الإدلاء بشهادة زور ** ، لا تعني ، تحريض أو تهديد الآخرين على تقديم أدلة كاذبة ".
** لذلك ، فإن مفتاح السلوك المذكور أعلاه هو ما إذا كان يمكن تحديده على أنه "تقديم أدلة كاذبة عن عمد" ** ، بمعنى آخر ، ما إذا كان المحامي الذي قدم المواد أو المعلومات يعلم أو كان ينبغي أن يعرف أن مادة الأدلة كانت خاطئة شهادة. نظرًا لأن المحامي كان يعلم بوضوح أن المادة تم إنشاؤها باستخدام الذكاء الاصطناعي عند تقديم الإفادة ، فقد كان هو نفسه ملزمًا بفحص ما إذا كان الدليل صحيحًا إلى حد معين. يقرر القاضي أو القسم المعني أن المحامي نفسه لديه معرفة ذاتية ، و ومن ثم يعتبر الفعل فعل "تقديم أدلة كاذبة عن عمد". وتزوير الأدلة وعرقلة الشهادة ".
** باختصار، بالنسبة للمحامين، قد لا يكون استخدام الذكاء الاصطناعي لكتابة المستندات أمرًا "يوفر الوقت والجهد". **
ليس المحامون فقط - مخاطر تقديم مواد ومعلومات كاذبة
** في الواقع، ليس المحامون فقط، ولكن أيضًا الأشخاص العاديين، الذين يستخدمون الذكاء الاصطناعي لإنشاء مواد كاذبة في مناسبات معينة سيتحملون أيضًا مسؤوليات معينة، كما أن الحالات الخطيرة ستتعرض أيضًا لخطر المسؤولية الجنائية. **
على سبيل المثال ، إذا كان الممثل كسولًا في طلب الدواء والتسجيل ، ويستخدم الذكاء الاصطناعي لإنتاج الشهادات والبيانات والمواد المطلوبة ، وما إلى ذلك ، ولكن في النهاية الشهادة والبيانات والمواد خاطئة ، فعندئذ إذا كانت المتطلبات الأخرى اجتمع الفاعل وقد تشكل "جريمة عرقلة إدارة المخدرات" في المادة 142 من "القانون الجنائي". مثال آخر هو أنه من أجل توفير الوقت ، يستخدم الجاني الذكاء الاصطناعي لإنتاج مستندات الإصدار مثل النشرات ، واستمارات الاشتراك ، وطرق عرض سندات الشركات والشركات ، وبعض المعلومات الكاذبة الواردة فيها ، والتي قد تشكل أيضًا "جريمة الاحتيال "إصدار الأوراق المالية" في المادة 160. . مثال آخر هو أن الفاعل يستخدم الذكاء الاصطناعي لجمع ونشر المعلومات ، وهذه المعلومات هي معلومات خاطئة تؤثر على تداول الأوراق المالية والعقود الآجلة ، أو الأخطار الكاذبة والأوبئة والكوارث وحالات الشرطة ، ثم سلوك الممثل قد يشكل انتهاكًا للمادة 180 - جريمة "اختلاق ونشر معلومات كاذبة عن تداول الأوراق المالية والعقود الآجلة" الواردة في الفقرة الأولى من المادة 11 أو "جريمة تلفيق ونشر معلومات كاذبة عمداً" في الفقرة الثانية من المادة 291-1.
بالإضافة إلى ذلك ، بالنسبة لبعض الموضوعات المحددة ، مثل موظفي المنظمات الوسيطة الذين يقومون بتقييم الأصول ، والتحقق من رأس المال ، والتحقق ، والمحاسبة ، والتدقيق ، والخدمات القانونية ، والرعاية ، وتقييم السلامة ، وتقييم الأثر البيئي ، والرصد البيئي ، وما إلى ذلك ، إذا كانوا يستخدمون الذكاء الاصطناعي في الكتابة إذا تم اعتبار المستند الناتج على أنه مستند شهادة مزور ، فقد يُشتبه في ارتكابه "جريمة تقديم مستندات تصديق مزورة". ** وتجدر الإشارة إلى أنه حتى لو لم يتمكن من إثبات نيته الذاتية ، إذا تم اعتبار أنه يكون غير مسؤول بشكل خطير ، فهناك إهمال جسيم ، ثم قد لا يزال يشكل "جريمة عدم الدقة الكبيرة في إصدار وثائق التصديق" ، ومن ثم يعاقب. **
ويمكن ملاحظة أن استخدام الذكاء الاصطناعي لكتابة المستندات ليس سيئًا للمحامين فحسب، بل أيضًا للأشخاص العاديين.
** كيف تحمي حقوقك **
ولذلك تنشأ مشكلة جديدة، إذا واجه مستخدم خدمة الذكاء الاصطناعي هراء الذكاء الاصطناعي التوليدي، لكنه فشل في التعرف عليه وبالتالي تسبب خسائر، فهل يمكنه التعافي من مزود خدمة الذكاء الاصطناعي؟
وفقًا للفقرة الأولى من المادة 7 من "قانون حماية حقوق المستهلك"، "يحق للمستهلكين انتهاك السلامة الشخصية والممتلكات عند الشراء واستخدام السلع وتلقي الخدمات." وفي الوقت نفسه، غالبًا ما يكون مقدمو خدمات الذكاء الاصطناعي إلكترونيين. وبالتالي، فإن مشغلي التجارة، وفقًا لأحكام المادة 74 من "قانون التجارة الإلكترونية"، "مشغل التجارة الإلكترونية الذي يبيع سلعًا أو يقدم خدمات، أو يفشل في أداء الالتزامات التعاقدية أو يؤدي التزامات تعاقدية لا تتوافق مع الاتفاقية، أو يتسبب في ضرر للآخرين، يكون مسؤولاً عن الأضرار وفقًا للقانون. المسؤولية المدنية." وبعبارة أخرى، يمكن للمستخدمين طلب التعويض من مقدمي خدمات الذكاء الاصطناعي وفقًا لأحكام هذين القانونين.
ومع ذلك، تجدر الإشارة إلى أن مقدمي خدمات الذكاء الاصطناعي ليسوا جميعهم "أغبياء"، فمن الممكن تمامًا أن ينصوا على مثل هذه المواقف في اتفاقية المستخدم أو النصوص ذات الصلة، مثل عدم ضمان صحة محتوى المخرجات. لا يمكن ضمان صحة المحتوى، وهذا النوع من الاتفاق معقول تمامًا، بمعنى آخر، لقد حذر التاجر المستخدم بالفعل من المخاطر قبل تقديم الخدمة، ويقع سلوك استخدام المستخدم ضمن "المسؤولية" تجاه جهة معينة. المدى. الفئة.
ومع ذلك، ينبغي أن يكون واضحا أن مثل هذه الاتفاقيات هي في الواقع شروط قياسية. ووفقا لأحكام القانون المدني وقانون حماية حقوق ومصالح المستهلك، يجب على مقدمي الخدمات "لفت انتباه المستهلكين إلى الكمية والجودة والسعر". أو الرسوم، وفترة الأداء وطريقة الأداء، واحتياطات السلامة وتحذيرات المخاطر، وخدمة ما بعد البيع، والمسؤولية المدنية والمحتويات الأخرى التي لها مصلحة كبيرة في المستهلك، وشرحها وفقًا لمتطلبات المستهلك"، وإلا فإن المستخدم لديه الحق في وقيل إن هذا الشرط ليس جزءا من العقد.
** اكتب في النهاية **
تكمن وراء انتشار تكنولوجيا الذكاء الاصطناعي مخاطر قانونية غير مرئية. "لقد توسعت هذه المخاطر القانونية بسبب عدم وجود لوائح محددة وموجهة. يجب عليك توخي الحذر في تقديم الخدمات واستخدامها. يجب على القراء والأصدقاء أن يضعوا الامتثال في الاعتبار وأن يكونوا حذرين بشأن مخرجات الذكاء الاصطناعي الخالية من المخاطر.