За последние несколько месяцев, работая над системой Agent, я все яснее осознаю одну серьезно недооцененную вещь: как бы сильным ни стал LLM, он не может действительно надежно оценивать состояние реального мира. Как только Agent переходит на уровень реального выполнения — открытие счетов, сделки, доступ к веб-сайтам, отправка форм — он подвержен высокой уязвимости. Потому что у него нет "реального уровня". Нам не хватает Agent Oracle, этот уровень является почти основой всей экосистемы Agent, но долгое время был игнорируем.
Почему LLM недостаточно? Потому что способности LLM по своей сути заключаются в генерации текстов с наивысшей вероятностью, а не в системе, которая может выводить истинную картину мира. Он не проверяет подлинность новостей, не распознает фишинговые ссылки, не определяет, был ли загрязнен определенный API, не понимает, действительно ли действует какой-либо закон, и не может точно уловить истинный смысл речи Пауэлла.