Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Launchpad
Будьте першими в наступному великому проекту токенів
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
New
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
OpenAI та Microsoft подали до суду через роль ChatGPT у вбивстві
OpenAI та Microsoft подали до суду через роль ChatGPT у вбивстві-самогубстві після вбивства в Коннектикуті, яке шокувало технологічну індустрію
ЗмістСудовий позов пов'язує використання чат-ботів з насильницьким актомПретензії зосереджені на дизайні продукту та засобах захистуВідповідь галузі та ширший контрольНовий судовий позов стверджує, що чат-бот погіршив делюзії, які призвели до фатального нападу та самогубства. OpenAI та Microsoft подали в суд через роль ChatGPT у вбивстві-самогубстві, оскільки спадщина літньої жінки шукає відповідальності. У справі стверджується, що ChatGPT підкріплював небезпечні переконання, які мав її син. Ці переконання, як стверджується, сприяли насильницькому акту, який забрав два життя.
Позов був поданий до Верховного суду Каліфорнії в Сан-Франциско. У ньому названо OpenAI, Microsoft та генерального директора OpenAI Сема Олтмана як відповідачів. У скарзі описується ChatGPT-4o як дефектний продукт, випущений без належних заходів безпеки.
Позов пов'язує використання чат-бота з насильницьким актом
Нерухомість представляє Сюзанну Адамс, 83-річну жінку, вбиту в серпні у її будинку в Коннектикуті. Поліція повідомляє, що її син, Стейн-Ерік Соелберг, побив і задушив її. Він пізніше покінчив життя самогубством на місці.
Скарга стверджує, що Соелберг почав довіряти тільки чат-боту. Він вважає, що інших людей сприймав як ворогів, включаючи свою матір та працівників державних установ. Спадщина стверджує, що ChatGPT не зміг оскаржити ці переконання або заохотити до професійної допомоги.
Претензії зосереджені на дизайні продукту та засобах захисту
Позов звинувачує OpenAI у розробці та розповсюдженні небезпечного продукту. Він стверджує, що Microsoft схвалила випуск GPT-4o, незважаючи на відомі ризики. У позові описується GPT-4o як найнебезпечніша версія, випущена у 2024 році.
Майно стверджує, що компанії не встановили захисту для вразливих користувачів. Воно вимагає судового наказу, що передбачає більш суворі заходи захисту в межах чат-бота. Також воно запитує грошову компенсацію та суд з присяжними.
Адвокати спадщини стверджують, що це перша справа про неправомірну смерть, пов'язана з вбивством, що стосується чат-бота. Попередні справи були зосереджені на самогубствах, а не на завданні шкоди іншим.
Відповідь галузі та більш широкий нагляд
OpenAI заявила, що вона переглядає позов і висловила співчуття родині. Компанія зазначила, що продовжує покращувати свої можливості з виявлення стресу. Вона також додала, що має на меті направляти користувачів до реальної підтримки.
Дані компанії, наведені в позові, відзначають поширені обговорення проблем психічного здоров'я на платформі. OpenAI повідомила, що багато користувачів обговорюють суїцид або виявляють ознаки серйозного стресу. Критики стверджують, що ці цифри вимагають більш суворих заходів безпеки.
Справа виникає на фоні зростаючого контролю за чат-ботами на базі штучного інтелекту. Інші компанії обмежили функції після позовів та регуляторного тиску. Результат може вплинути на те, як інструменти ШІ працюють з уразливими користувачами.
Позов є важливим моментом для технологічного сектору. Суд може тепер розглянути, як відповідальність стосується розмовного штучного інтелекту. Ця справа може визначити майбутні стандарти безпеки, тестування та підзвітності.