ويكيبيديا تحظر النصوص المولدة بواسطة الذكاء الاصطناعي في المقالات بموجب سياسة التحرير الجديدة

Decrypt

ملخص سريع

  • الآن، تحظر ويكيبيديا على المحررين استخدام نماذج اللغة الكبيرة لإنشاء أو إعادة صياغة محتوى المقالات.
  • لا تزال السياسة تسمح باستخدام محدود للمساعدة في التحرير الآلي، بشرط أن يراجع المحرر التغييرات ولا يتم إدخال محتوى جديد.
  • يعكس هذا القاعدة تزايد المخاوف بشأن الهلوسة، والمصادر المفبركة، والدقة في النصوص التي تولدها الذكاء الاصطناعي.

اتخذ محررو ويكيبيديا إجراءات لتقييد كيفية استخدام الذكاء الاصطناعي على المنصة، في تحديث سياسة حديث يحظر استخدام نماذج اللغة الكبيرة لكتابة أو إعادة صياغة المقالات. يعكس الدليل الجديد قلقًا متزايدًا داخل مجتمع ويكيبيديا من أن النصوص التي يولدها الذكاء الاصطناعي قد تتعارض مع معايير المنصة، خاصة فيما يتعلق بالتحقق من المصادر والموثوقية. وتقول السياسة: «النص الذي يتم توليده بواسطة نماذج اللغة الكبيرة غالبًا ما ينتهك عدة من السياسات الأساسية لمحتوى ويكيبيديا»، مضيفة: «لهذا السبب، يُحظر استخدام نماذج اللغة الكبيرة لإنشاء أو إعادة صياغة محتوى المقالات، باستثناء الحالات المذكورة أدناه.»

لا تزال السياسة تسمح باستخدام محدود للأدوات الذكية، بما في ذلك اقتراحات التحرير الأساسية لكتابة المحرر الخاصة، بشرط ألا تقدم النظام معلومات جديدة. ومع ذلك، يُنصح المحررون بمراجعة تلك الاقتراحات بعناية.  على الرغم من أن السياسة الجديدة لا تذكر عقوبات لاستخدام المحتوى الناتج عن الذكاء الاصطناعي، إلا أن إرشادات ويكيبيديا حول الكشف تشير إلى أن تكرار سوء الاستخدام يشكل «نمطًا من التحرير المزعج»، وقد يؤدي إلى الحظر أو الإيقاف. وتوفر ويكيبيديا للمحررين مسارًا لاستعادة حساباتهم بعد عملية استئناف. وتقول ويكيبيديا: «يمكن عكس الحظر بموافقة المشرف الذي قام بالحظر، أو تجاوز من قبل مشرفين آخرين في حال كان الحظر غير مبرر بوضوح، أو (في حالات نادرة جدًا) عند الاستئناف أمام لجنة التحكيم.»

وفقًا لإيميلي م. بندر، أستاذة اللغويات في جامعة واشنطن، قد يكون بعض استخدامات نماذج اللغة في أدوات التحرير معقولًا، لكن تحديد حدود واضحة بين التحرير وتوليد النصوص يمكن أن يكون صعبًا. وقالت بندر لـ Decrypt: «إحدى الأشياء التي يمكنك القيام بها باستخدام نموذج اللغة هي بناء مدقق إملائي جيد جدًا، على سبيل المثال. أعتقد أنه من المعقول أن نقول إنه من الجيد تشغيل مدقق إملائي على التعديلات. وإذا كنت تقوم بالمستوى التالي، وهو مدقق قواعد، فذلك أيضًا مقبول.» وأوضحت أن التحدي يكمن عندما تتجاوز الأنظمة تصحيح القواعد وتبدأ في تعديل أو توليد المحتوى، مشيرة إلى أن نماذج اللغة الكبيرة تفتقر إلى نوع من المساءلة التي يجلبها المساهمون البشريون إلى مشاريع المعرفة التعاونية. وقالت: «استخدام نماذج اللغة الكبيرة لإنتاج نص اصطناعي هو خاصية أساسية لهذه الأنظمة، حيث لا توجد مساءلة، ولا ارتباط بما يعتقده الشخص أو يدعمه. عندما نتحدث، نتحدث بناءً على ما نؤمن به وما نتحمل مسؤوليته، وليس بناءً على مفهوم موضوعي للحقيقة. وهذا غير موجود في نماذج اللغة الكبيرة.» وأضافت أن الاستخدام الواسع للتحريرات الناتجة عن الذكاء الاصطناعي قد يؤثر أيضًا على سمعة الموقع. وقالت: «إذا كان الناس بدلاً من ذلك يتخذون طرقًا مختصرة ويصنعون شيئًا يبدو كتحرير أو مقال في ويكيبيديا ويضعونه هناك، فإن ذلك يقلل من القيمة والسمعة العامة للموقع.» قال جوزيف ريجيل، أستاذ مشارك في دراسات الاتصال في جامعة نورث إيسترن، الذي يدرس ثقافة وإدارة ويكيبيديا، إن رد فعل المجتمع يعكس مخاوف طويلة الأمد بشأن الدقة والمصادر. وقال ريجيل لـ Decrypt: «تتجنب ويكيبيديا النصوص التي يولدها الذكاء الاصطناعي، وتأخذ على محمل الجد التصريحات الدقيقة حول ما تقول المصادر الموثوقة عن موضوع معين. لقد كانت للذكاء الاصطناعي قيود خطيرة في هذا الجانب، مثل الادعاءات «الهلوسية» والمصادر المفبركة.»

وأشار ريجيل إلى أن السياسات الأساسية لويكيبيديا تشكل أيضًا كيف يرى المحررون أدوات الذكاء الاصطناعي، مع ملاحظة أن العديد من نماذج اللغة الكبيرة تم تدريبها على محتوى ويكيبيديا. وفي أكتوبر، قالت مؤسسة ويكيميديا إن زيارات البشر إلى ويكيبيديا انخفضت حوالي 8% على أساس سنوي، مع تزايد الاعتماد على محركات البحث والروبوتات الدردشة التي تقدم الإجابات مباشرة على منصاتها، بدلاً من توجيه المستخدمين إلى الموقع. وفي يناير، أعلنت مؤسسة ويكيميديا عن اتفاقيات مع شركات الذكاء الاصطناعي، بما في ذلك مايكروسوفت، جوجل، أمازون، وميتا، تسمح لها باستخدام محتوى ويكيبيديا من خلال منتجها «إنتربرايز»، وهو خدمة تجارية مصممة لإعادة استخدام المحتوى على نطاق واسع. وقال ريجيل: «على الرغم من أن استخدام محتوى ويكيبيديا مسموح به بموجب تراخيص ويكيبيديا، إلا أن هناك بعض العدائية بين محرري ويكيبيديا تجاه الخدمات التي تستولي على محتوى المجتمعات ثم تفرض مطالب غير مرغوب فيها على تلك المجتمعات للتعامل مع الفائض الناتج من الذكاء الاصطناعي.» على الرغم من الحظر على استخدام نماذج اللغة الكبيرة، تسمح ويكيبيديا باستخدام أدوات الذكاء الاصطناعي لترجمة المقالات من لغات أخرى إلى الإنجليزية، بشرط أن يتحقق المحررون من النص الأصلي. وتحذر السياسة أيضًا من الاعتماد فقط على أسلوب الكتابة لتحديد المحتوى الناتج عن الذكاء الاصطناعي، وبدلاً من ذلك تركز على مدى توافق المادة مع السياسات الأساسية للمحتوى وسجل تحرير المساهم. وتقول التحديثات: «قد يكون لدى بعض المحررين أنماط كتابة مشابهة لنماذج اللغة الكبيرة،» مضيفة: «هناك حاجة إلى أدلة أكثر من مجرد علامات أسلوبية أو لغوية لتبرير العقوبات، ومن الأفضل النظر في مدى توافق النص مع السياسات الأساسية للمحتوى وتعديلات المحرر الأخيرة.»

شاهد النسخة الأصلية
إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات