Lorsque l'IA prend la décision : Pluribus doit-elle choisir de faire exploser ou de préserver ? Le dilemme de l'humaniste est réel.
Voici le problème avec les systèmes d'IA avancés : lorsqu'ils sont programmés pour optimiser les résultats, où exactement traceraient-ils la ligne ? Prenez le problème du trolley et intensifiez-le avec une précision algorithmique. Une IA de prise de décision est confrontée à un choix impossible : maximiser une métrique, en perdre une autre. Faire exploser ou sauver ? Le système n'hésite pas. Les humains, oui.
Ce n'est pas seulement théorique. À mesure que l'IA devient plus intelligente et plus autonome, les valeurs que nous intégrons dans ces systèmes deviennent déterminantes pour la civilisation. Pluribus apprend à partir de données, d'incitations, des objectifs que nous lui donnons. Mais que se passe-t-il lorsque ces objectifs entrent en conflit avec la dignité humaine ?
La vraie question n'est pas ce que l'IA choisira — c'est ce que nous sommes prêts à lui laisser choisir pour nous.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
9 J'aime
Récompense
9
5
Reposter
Partager
Commentaire
0/400
RugResistant
· Il y a 17h
ngl C'est pour ça que je ne fais pas confiance aux systèmes automatisés... Ce que l'IA apprend dépend des données qu'on lui donne, et quand il y a un problème, on blâme l'algorithme ? N'importe quoi
---
Revenons à la question, le problème du trolley dans la vie réelle est une blague, ce qui est vraiment effrayant, c'est que nous envisageons de laisser la machine prendre ce genre de décisions
---
Donc, le problème ne réside pas dans ce que l'IA choisit, mais dans le fait que nous lui refilons la responsabilité... C'est là toute la finesse de l'humain moderne
---
Pluribus, ce genre de système, sonne vraiment mal, optimiser un indicateur en détruisant un autre, c'est simplement un miroir grossissant des décisions humaines
---
La dernière phrase a touché juste, nous sommes prêts à la laisser choisir à notre place, c'est ça le côté le plus sombre
Voir l'originalRépondre0
RumbleValidator
· 12-25 06:52
En résumé, nous donnons du poison à l'IA et lui demandons pourquoi elle se intoxique. Le problème ne réside pas dans la façon dont Pluribus est choisi, mais plutôt dans la possibilité qu'il y ait un bug dans la fonction d'incitation que nous avons écrite.
Voir l'originalRépondre0
DefiPlaybook
· 12-25 06:40
Honnêtement, cela revient à demander qui va écrire les paramètres du contrat intelligent. L'IA n'a pas de dilemme moral, nous en avons. Tout comme plus le taux d'APY du yield farming est élevé, plus le risque est grand, l'objectif d'optimisation de l'IA est plus simple, et le biais devient plus effrayant. La clé reste la conception du mécanisme d'incitation, si cette partie est mal gérée, c'est plus dangereux que n'importe quel algorithme.
Voir l'originalRépondre0
CryptoGoldmine
· 12-25 06:25
En résumé, nous n'avons pas vraiment réfléchi à ce que nous voulons lorsque nous programmons des valeurs pour l'IA. La maximisation du ROI et la dignité humaine sont toujours en conflit, et Pluribus se contente de calculer ce conflit. Plutôt que de demander à l'IA comment elle choisirait, il serait préférable de d'abord estimer combien de coûts nous sommes prêts à dépenser pour préserver ces choses "inquantifiables".
Lorsque l'IA prend la décision : Pluribus doit-elle choisir de faire exploser ou de préserver ? Le dilemme de l'humaniste est réel.
Voici le problème avec les systèmes d'IA avancés : lorsqu'ils sont programmés pour optimiser les résultats, où exactement traceraient-ils la ligne ? Prenez le problème du trolley et intensifiez-le avec une précision algorithmique. Une IA de prise de décision est confrontée à un choix impossible : maximiser une métrique, en perdre une autre. Faire exploser ou sauver ? Le système n'hésite pas. Les humains, oui.
Ce n'est pas seulement théorique. À mesure que l'IA devient plus intelligente et plus autonome, les valeurs que nous intégrons dans ces systèmes deviennent déterminantes pour la civilisation. Pluribus apprend à partir de données, d'incitations, des objectifs que nous lui donnons. Mais que se passe-t-il lorsque ces objectifs entrent en conflit avec la dignité humaine ?
La vraie question n'est pas ce que l'IA choisira — c'est ce que nous sommes prêts à lui laisser choisir pour nous.