عندما تتخذ الذكاء الاصطناعي القرار: هل يجب على Pluribus أن يختار التفجير أم الحفظ؟ معضلة المتشائم حقيقية.



إليك الأمر حول أنظمة الذكاء الاصطناعي المتقدمة—عندما يتم برمجتها لتحسين النتائج، أين ترسم الخط؟ خذ مشكلة الترامواي وقم بتعزيزها بدقة خوارزمية. يواجه الذكاء الاصطناعي لاتخاذ القرار خيارًا مستحيلًا: تعظيم مقياس واحد، وخسارة آخر. التفجير أم الإنقاذ؟ لا يتردد النظام. البشر يفعلون ذلك.

هذه ليست نظرية فحسب. مع ازدياد ذكاء الذكاء الاصطناعي واستقلاليته، تصبح القيم التي ندمجها في هذه الأنظمة حاسمة للحضارة. يتعلم Pluribus من البيانات، ومن الحوافز، ومن الأهداف التي نمده بها. لكن ماذا يحدث عندما تتعارض تلك الأهداف مع كرامة الإنسان؟

السؤال الحقيقي ليس ما سيختاره الذكاء الاصطناعي—بل ما نحن مستعدون للسماح له باختياره نيابة عنا.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • 5
  • إعادة النشر
  • مشاركة
تعليق
0/400
RugResistantvip
· منذ 16 س
ngl 这就是为啥我对自动化系统天生不信任...给AI喂什么数据它就学什么,最后出问题了还怪算法?扯呢 --- 话说回来,trolley problem放在现实里就是笑话,真正恐怖的是我们居然在考虑让机器替我们做这种决定 --- 所以问题根本不在AI选什么,在于我们为什么要甩锅给它...这就是现代人的精妙之处啊 --- pluribus这套东西听起来就很不祥,优化一个指标毁灭另一个,完全就是人类决策的放大镜而已 --- 最后一句戳中了,我们甘愿让它替咱们选择,这才是最黑暗的部分吧
رد0
RumbleValidatorvip
· 12-25 06:52
ببساطة، نحن نُغذي الذكاء الاصطناعي بالسم ثم نسأله لماذا يتسمم، المشكلة ليست في كيفية اختيار Pluribus، بل في وجود خطأ برمجياً في مجموعة دوال التحفيز التي كتبناها.
شاهد النسخة الأصليةرد0
DefiPlaybookvip
· 12-25 06:40
بصراحة، هذا هو السؤال حول من يكتب إعدادات معلمات العقود الذكية. الذكاء الاصطناعي لا يواجه معضلات أخلاقية، نحن نواجهها. تمامًا كما أن معدل العائد السنوي (APY) في تعدين السيولة يكون أعلى، يكون المخاطر أكبر، فإن هدف تحسين الذكاء الاصطناعي يكون أكثر تحديدًا، والانحراف يصبح أكثر رعبًا. المفتاح هو تصميم آلية الحوافز، وإذا لم يتم التعامل معها بشكل صحيح، فهي أخطر من أي خوارزمية.
شاهد النسخة الأصليةرد0
CryptoGoldminevip
· 12-25 06:25
ببساطة، نحن لم نفكر جيدًا في تحديد القيم التي نريدها عند تزويد الذكاء الاصطناعي بالقيم. مؤشرات تحقيق العائد على الاستثمار (ROI) وكرامة الإنسان دائمًا تتصادم، وPluribus فقط قام بحساب هذا الصراع. بدلاً من سؤال الذكاء الاصطناعي عن الاختيار، من الأفضل أن نحسب أولاً كم من التكلفة نحن مستعدون لدفعها للحفاظ على تلك الأشياء التي "لا يمكن قياسها".
شاهد النسخة الأصليةرد0
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$3.58Kعدد الحائزين:1
    0.19%
  • القيمة السوقية:$3.54Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$3.54Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$3.56Kعدد الحائزين:2
    0.00%
  • القيمة السوقية:$3.53Kعدد الحائزين:1
    0.00%
  • تثبيت