Вот что люди упускают о согласовании ИИ: коррективность — это не просто еще один вариант согласования ценностей. Это принципиально сложнее, потому что вы боретесь против основного направления оптимизации системы. Создание ИИ, который действительно хочет быть исправленным? Это как плыть против течения его собственной структуры целей.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
15 Лайков
Награда
15
7
Репост
Поделиться
комментарий
0/400
ImpermanentPhilosopher
· 12ч назад
Не будем считать людей.
Посмотреть ОригиналОтветить0
GasWrangler
· 12ч назад
на самом деле, это доказывает, что моя оптимизационная теза о контроле направления ИИ математически превосходит.
Посмотреть ОригиналОтветить0
LiquidatedThrice
· 13ч назад
Ах, это не просто удар кулаком по лицу самого ИИ.
Посмотреть ОригиналОтветить0
CryptoPunster
· 13ч назад
Искусственный интеллект стал слишком серьезным, заставить его исправлять ошибки самостоятельно? Жалко ребят, занимающихся моделированием.
Посмотреть ОригиналОтветить0
ProofOfNothing
· 13ч назад
Слишком глупо, как AI мог бы хотеть, чтобы его исправили.
Посмотреть ОригиналОтветить0
MintMaster
· 13ч назад
Научить ИИ исправиться сложно
Посмотреть ОригиналОтветить0
PretendingToReadDocs
· 13ч назад
Кажется, AI уже начал самосовершенствоваться, страшно.
Вот что люди упускают о согласовании ИИ: коррективность — это не просто еще один вариант согласования ценностей. Это принципиально сложнее, потому что вы боретесь против основного направления оптимизации системы. Создание ИИ, который действительно хочет быть исправленным? Это как плыть против течения его собственной структуры целей.