Друзі, добрий день! Сьогодні хочу поділитися з вами своїми справжніми враженнями з моменту входу у сферу
Коли я тільки починав, кожен день був наповнений тривогою, дуже хотілося швидше інтегруватися, але процес був досить складним. Проте я вважаю себе щасливим, адже якраз тоді почався підйом嘴撸, і я потрапив на хвилю невеликого тренду
Але стикнувшись з безліччю проектів, доводилося самостійно читати білі книги, шукати інформацію про партнерів і фінансування. Іноді, переглядаючи її знову і знову, не міг знайти ключовий контент, і це було досить прикро. Тому я подумав скористатися AI-інструментами
Однак, коли я використовував AI для дослідження галузевих питань або даних, я натрапив на велику проблему — його відповіді здавалося, що все правильно, логічно, обґрунтовано, але коли я перевіряв їх, багато інформації виявлялося неправдивою!
▪️ Це те, що всі зазвичай називають проблемою «ілюзії» AI
Насправді сучасний AI — це як студент, який не дуже любить добре заучувати матеріал: швидко пише звіти, робить аналізи і виглядає круто, але часто має дві фатальні помилки: або він серйозно вигадує (тобто ілюзія, наприклад, вигадані цитати або фальшиві дані), або має приховані упередження
Це створює досить складний замкнутий цикл: якщо тренувати його на високоякісних даних, AI дійсно стане менше «балакати дурниці», але може стати упередженим і не бачити проблему цілком
Якщо ж намагатися зробити його об’єктивним і нейтральним, додавши різноманітні дані, можна навчити його помилковій інформації
Загалом, це проблема, яка закладена в самій моделі тренування AI: просто збільшення обсягу даних і параметрів моделі не дає рішення
Тому навіть найсильнішому AI зараз доводиться використовувати для написання текстів або пошуку базової інформації. У важливих сферах, таких як фінанси, освіта або правосуддя, ніхто не наважиться цілком довіряти його результатам
Лише кілька місяців тому я натрапив на @miranetwork і зрозумів, що існує проект, який спеціально вирішує цю проблему
Mira — це не нова модель AI, а система «перевірки вихідних даних AI» Вона ніби забезпечує кожне висловлювання AI «командою багатократної перевірки», і ця команда складається з незалежних перевіряльників, які не знають один одного і не можуть обдурити систему, тому вона ефективно вирішує існуючі проблеми
А головна мета Mira — зробити так, щоб кожне висловлювання AI могло пройти «жорстку перевірку»
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Друзі, добрий день! Сьогодні хочу поділитися з вами своїми справжніми враженнями з моменту входу у сферу
Коли я тільки починав, кожен день був наповнений тривогою, дуже хотілося швидше інтегруватися, але процес був досить складним. Проте я вважаю себе щасливим, адже якраз тоді почався підйом嘴撸, і я потрапив на хвилю невеликого тренду
Але стикнувшись з безліччю проектів, доводилося самостійно читати білі книги, шукати інформацію про партнерів і фінансування. Іноді, переглядаючи її знову і знову, не міг знайти ключовий контент, і це було досить прикро. Тому я подумав скористатися AI-інструментами
Однак, коли я використовував AI для дослідження галузевих питань або даних, я натрапив на велику проблему — його відповіді здавалося, що все правильно, логічно, обґрунтовано, але коли я перевіряв їх, багато інформації виявлялося неправдивою!
▪️ Це те, що всі зазвичай називають проблемою «ілюзії» AI
Насправді сучасний AI — це як студент, який не дуже любить добре заучувати матеріал: швидко пише звіти, робить аналізи і виглядає круто, але часто має дві фатальні помилки:
або він серйозно вигадує (тобто ілюзія, наприклад, вигадані цитати або фальшиві дані), або має приховані упередження
Це створює досить складний замкнутий цикл:
якщо тренувати його на високоякісних даних, AI дійсно стане менше «балакати дурниці», але може стати упередженим і не бачити проблему цілком
Якщо ж намагатися зробити його об’єктивним і нейтральним, додавши різноманітні дані, можна навчити його помилковій інформації
Загалом, це проблема, яка закладена в самій моделі тренування AI: просто збільшення обсягу даних і параметрів моделі не дає рішення
Тому навіть найсильнішому AI зараз доводиться використовувати для написання текстів або пошуку базової інформації. У важливих сферах, таких як фінанси, освіта або правосуддя, ніхто не наважиться цілком довіряти його результатам
Лише кілька місяців тому я натрапив на @miranetwork і зрозумів, що існує проект, який спеціально вирішує цю проблему
Mira — це не нова модель AI, а система «перевірки вихідних даних AI»
Вона ніби забезпечує кожне висловлювання AI «командою багатократної перевірки», і ця команда складається з незалежних перевіряльників, які не знають один одного і не можуть обдурити систему, тому вона ефективно вирішує існуючі проблеми
А головна мета Mira — зробити так, щоб кожне висловлювання AI могло пройти «жорстку перевірку»