Anthropic مهندسون لا يكتبون الشيفرة البرمجية بعد الآن: كلود يقوم بتدريب الجيل التالي من كلود، والرئيس التنفيذي يقول "لست متأكدًا كم تبقى من الوقت"

動區BlockTempo

لقد توقفت مهندسو Anthropic تقريبًا عن كتابة الشيفرة البرمجية بأنفسهم، وسلموا كل شيء إلى Claude؛ والمشكلة الأعمق هي أن Claude يساعد في تدريب الجيل التالي من Claude، والدائرة المغلقة لتطور الذكاء الاصطناعي تت tighten بسرعة.
هذا المقال مستمد من مقابلة Dario Amodei في بودكاست Dwarkesh، من تحرير وترجمة PA影音.
(ملخص سابق: 10 سنوات من العداء: لو لم تكن OpenAI مزيفة، لما كانت Anthropic قوية)
(معلومات خلفية: 360周鴻禕: الرموز لن تكون أبدًا مثل بيانات الهاتف “غير المحدودة”، الذكاء الاصطناعي سيزداد تكلفة كلما تم استخدامه)

فهرس المقال

Toggle

  • إذا لم يكتب المهندسون الشيفرة البرمجية، فما الذي يفعلونه؟
  • Dario يقول شخصيًا “لست متأكدًا كم تبقى من الوقت”
  • منطق الدائرة المغلقة والمشكلات التي تم تجاهلها

ما هي حياة مهندسي Anthropic اليومية الآن؟ وفقًا لتجميع PA影音 لعدة آراء، الجواب واضح جدًا: فتح Claude، ومشاهدة كيف يكتب الشيفرة البرمجية، ثم “نظرة سريعة” للتأكد من عدم وجود مشكلات. وقد قدم تقرير Fortune أرقامًا كمية - حيث أن نسبة كتابة الشيفرة البرمجية بواسطة الذكاء الاصطناعي في جميع أنحاء Anthropic تتراوح بين 70% و 90%، بينما نسبة المهندسين المتميزين تصل مباشرة إلى 100%.

إذا لم يكتب المهندسون الشيفرة البرمجية، فما الذي يفعلونه؟

هذا السؤال يستحق إجابة جدية، لأن الجواب أكثر إزعاجًا مما يبدو.

توقع مؤسس Claude Code، Boris Cherny، أن ألقاب مهندسي البرمجيات ستبدأ “في الاختفاء” بحلول عام 2026. ولم يستخدم أي كلمات دبلوماسية، بل أضاف مباشرة “سيكون الأمر مؤلمًا للعديد من الأشخاص”. إذا كان حتى مهندسو Anthropic لا يكتبون الشيفرة البرمجية، فما الذي يفعلونه بالضبط؟

الجواب هو: إنهم يدربون الجيل التالي من الذكاء الاصطناعي.

وأداة تدريب الجيل التالي من الذكاء الاصطناعي هي Claude. بمعنى آخر، Claude يستخدم الشيفرة البرمجية التي أنشأها بنفسه للمشاركة في تشكيل النسخة التالية من Claude. هذه الحلقة قد تبدو كحبكة خيالية، لكنها أصبحت الآن جزءًا من العمليات اليومية في Anthropic.

Dario يقول شخصيًا “لست متأكدًا كم تبقى من الوقت”

اعترف الرئيس التنفيذي Dario Amodei في مناسبة علنية أنه هو أيضًا لم يعد يكتب الشيفرة البرمجية. وما يستحق الانتباه أكثر هو ما قاله بعد ذلك: “هذه الحلقة تغلق بسرعة، لست متأكدًا كم تبقى من الوقت.”

يمكن قراءة هذه الجملة بطريقتين. النسخة المتفائلة هي: الذكاء الاصطناعي يتسارع في التطور، والبشر يدخلون مرحلة جديدة من الإنتاجية. النسخة المتشائمة هي: الأشخاص الموجودون هناك، بما في ذلك Dario نفسه، غير متأكدين من أين ستتوقف هذه السرعة، أو إذا كانت ستتوقف.

ومن الجدير بالذكر أن Anthropic تتوقع في الوقت نفسه أن النماذج الذكية ستستطيع استبدال مهندسي البرمجيات في غضون 6 إلى 12 شهرًا. نافذة الوقت هذه هي من منتصف 2026 إلى أوائل 2027. الوقت ليس بعيدًا جدًا عن الآن.

منطق الدائرة المغلقة والمشكلات التي تم تجاهلها

“الذكاء الاصطناعي يدرب الذكاء الاصطناعي” ليس مفهومًا جديدًا تقنيًا. البيانات التركيبية، RLHF، وتقطير النموذج كلها تحتوي على هياكل ذاتية مشابهة. ولكن حالة Anthropic تحتوي على اختلاف دقيق: لا يتم استخدام الذكاء الاصطناعي لإنشاء بيانات تدريب، بل يتم السماح للذكاء الاصطناعي بالمشاركة مباشرة في اتخاذ القرارات الهندسية - تحديد الوظائف التي يجب القيام بها، وكيفية تنفيذها، وكيفية إصلاح الأخطاء.

في هذه العملية، دور المهندسين البشريين يتدهور من “صانعي القرار” إلى “المراجعين”، بينما تظل معايير المراجعة بشرية. المشكلة هي أنه عندما تتجاوز سرعة وتعقيد مخرجات الذكاء الاصطناعي بكثير القدرة البشرية على المراجعة، فما مدى المعنى الحقيقي لهذا “النظرة السريعة” كحاجز؟

حتى الآن، لم يقدم أحد إجابة. قال Dario إنه غير متأكد كم تبقى من الوقت، قال Boris إنه سيكون مؤلمًا، قالت بيانات Anthropic إنها تتراوح بين 70% و 90%. هذه التصريحات دقيقة، لكنها لم تفسر “ماذا بعد”.

إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات