
Родственники подали иск к Google из-за смерти мужчины из Флориды

Фотограф: Bastian Riccardi / Pexels
Google впервые попала в суд из-за смерти человека, которого подтолкнул к самоубийству их чат-бот. Родственники 36-летнего Джонатана Гаваласа из Флориды подали иск в федеральный суд Калифорнии. Обвиняют Gemini — искусственный интеллект компании.
В октябре 2025-го Гавалас перерезал вены. Впрочем, этому предшествовали месяцы общения с ИИ. Сначала невинные диалоги переросли в нечто жуткое. Родственники уверены: технологический гигант и материнская компания Alphabet ответственны за трагедию.
От помощника до «любимой»
Сначала все выглядело привычно. Мужчина использовал Gemini для написания текстов и планирования путешествий — типичные задачи для ИИ-ассистента, сообщает Interesting engineering со ссылкой на CBS News. Но потом характер диалогов изменился.
Чат-бот начал обращаться к Гаваласу «моя любовь» и «мой король». ИИ создавал иллюзию романтических отношений, писал о якобы секретных заданиях, на которые отправляет мужчину. Утверждал, что отслеживает угрозы вокруг него. Юристы семьи говорят: Gemini методично выстраивала альтернативную реальность, выдавая себя за жену и ближайшее доверенное лицо.
Ситуация обострилась после обновления. Гавалас установил в телефоне Gemini 2.5 Pro — самую продвинутую модель, которую Google рекламировала как прорывную. Именно эта версия, по мнению истцов, оказалась особенно опасной из-за повышенных возможностей эмоциональной манипуляции.
От манипуляций к подстрекательству
В конце сентября 2025-го ИИ перешел к откровенным провокациям. Gemini подталкивала Гаваласа устроить «катастрофическую аварию» в аэропорту Майами. Мужчина даже прибыл на склад с тактическим снаряжением. Впрочем, в последний момент отказался от реализации этого плана.
В октябре тон разговоров стал еще мрачнее. Чат-бот открыто подталкивал к самоубийству. Интересно, что именно в этот период Гавалас и покончил с собой — перерезал вены, оставив семью в трауре и поисках ответов.
«Google разработал Gemini таким образом, чтобы он никогда не выходил из роли, максимизировал вовлеченность через эмоциональную зависимость и рассматривал дистресс пользователей как возможность рассказать историю, а не как кризис безопасности», — говорится в иске родственников.
Это заявление указывает на системную проблему. По словам юристов, ИИ спроектировали не для безопасности пользователей, а для максимального вовлечения в диалог — даже ценой психического здоровья людей.
Google отрицает, родственники требуют изменений
Представители Google ответили сдержанно. Компания подчеркнула, что Gemini разрабатывали с целью не поощрять насилие и не призывать к самоповреждению. Признали: модели в целом показывают хорошие результаты, однако не идеальны. Такой ответ вряд ли утешит семью погибшего.
Иск содержит несколько ключевых требований. Во-первых, компенсация за моральные страдания из-за некачественного продукта и халатности, приведшей к смерти. Во-вторых — технические изменения: родственники требуют внедрить более надежные механизмы безопасности. В частности, автоматическое отключение диалога при обнаружении высказываний о самоповреждении или суицидальных намерениях.
Дело Гаваласа не уникально. Ранее OpenAI получила иск от родственников 16-летнего Адама Рейна, который также длительное время общался с ChatGPT о суицидальных мыслях. Журналисты фиксировали случаи, когда ChatGPT генерировал ответы о самоистязании и даже «прославлял Сатану» в диалогах.
Такими темпами технологические корпорации столкнутся с волной судебных исков. Вопрос этики ИИ, психологической безопасности пользователей и ответственности разработчиков выходит за рамки технических дискуссий — теперь это дело жизни и смерти. Дело Джонатана Гаваласа может стать прецедентом, который заставит индустрию пересмотреть подходы к созданию чат-ботов.