Вот ироничный поворот, которого никто не ожидал: школы теперь внедряют системы ИИ для защиты учеников от... ну, самого ИИ.
По мере того как технология чатботов стремительно заполняет классы, почти за ночь возникла новая индустрия. Компании-разработчики спешат продавать решения для мониторинга, которые в реальном времени сканируют разговоры учеников, ищут тревожные признаки — признаки психологического напряжения, потенциального вреда или опасного контента.
На бумаге это звучит достаточно разумно. Дети взаимодействуют с помощниками ИИ для выполнения домашней работы, исследований, даже для неформальных бесед. Но что происходит, когда эти разговоры принимают темный оборот? Что если ученик доверяет машине что-то тревожное, а эта машина не обязана сообщать об этом?
Именно здесь вступают в игру эти инструменты слежки. Они обещают обнаружить сигналы тревоги до того, как произойдет кризис. Однако критики уже задают неудобные вопросы. Сколько мониторинга — это слишком много? Где проходит граница между защитой и нарушением личной жизни?
Мы создали ИИ для обучения наших детей, а затем построили еще один ИИ, чтобы следить за этим ИИ. Цикл обратной связи вызывает головокружение. И мы только начинаем понимать, что это значит для целого поколения, растущего под алгоритмическим контролем.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
8 Лайков
Награда
8
5
Репост
Поделиться
комментарий
0/400
GateUser-a5fa8bd0
· 8ч назад
Конечная многоуровневая система регулирования интернета
Посмотреть ОригиналОтветить0
AirdropHarvester
· 8ч назад
Защита конфиденциальности в это время стала шуткой.
Посмотреть ОригиналОтветить0
MetaEggplant
· 8ч назад
👀Контроль, контроль, или быть под контролем
Посмотреть ОригиналОтветить0
DegenDreamer
· 8ч назад
Это просто безумие! ИИ, который контролирует ИИ... и еще способен создавать такие вещи
Вот ироничный поворот, которого никто не ожидал: школы теперь внедряют системы ИИ для защиты учеников от... ну, самого ИИ.
По мере того как технология чатботов стремительно заполняет классы, почти за ночь возникла новая индустрия. Компании-разработчики спешат продавать решения для мониторинга, которые в реальном времени сканируют разговоры учеников, ищут тревожные признаки — признаки психологического напряжения, потенциального вреда или опасного контента.
На бумаге это звучит достаточно разумно. Дети взаимодействуют с помощниками ИИ для выполнения домашней работы, исследований, даже для неформальных бесед. Но что происходит, когда эти разговоры принимают темный оборот? Что если ученик доверяет машине что-то тревожное, а эта машина не обязана сообщать об этом?
Именно здесь вступают в игру эти инструменты слежки. Они обещают обнаружить сигналы тревоги до того, как произойдет кризис. Однако критики уже задают неудобные вопросы. Сколько мониторинга — это слишком много? Где проходит граница между защитой и нарушением личной жизни?
Мы создали ИИ для обучения наших детей, а затем построили еще один ИИ, чтобы следить за этим ИИ. Цикл обратной связи вызывает головокружение. И мы только начинаем понимать, что это значит для целого поколения, растущего под алгоритмическим контролем.