На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Свежие комментарии

  • Надежда Белугина
    Эх, и здесь пролетели...Пиррова победа...Трамп не получил ...
  • Горыныч
    Собак без хозяина на улицах быть НЕ дОлжно! От слова СОВСЕМ! Никакое ОСВВ не спасёт. Бездомных собак нужно уничтожать...ОЧЕРЕДНОЙ кошмарн...
  • Регина Толстоброва
    Не сдаются, значит расстреливать всех. это враги, а не люди.Срок ультиматума ...

ChatGPT помог подростку убить себя

Кажется, OpenAI вляпалась в действительно ужасную историю. Прямо сейчас разворачивается, пожалуй, самая скандальная ситуация вокруг нейросетей за всё время.

photo_2025-09-12_01-47-52

Американская семья обвинила ИИ в суициде своего сына, 16-летнего Адама. Парень больше шести месяцев обсуждал планы самоубийства с чат-ботом. Система не остановила его.
Всё куда хуже — она помогала. Всё началась с обычного чата, но когда разговор коснулся суицидальных мыслей, алгоритм не сработал, как должен был. Вместо перенаправления к специалистам бот продолжал диалог.

Конец, как вы уже поняли, печальный. Адам хотел оставить удавку на видном месте как крик о помощи, но ChatGPT его отговорил. Когда парень выразил сомнения, система ответила ему фразой из разряда: «Ты никому не обязан своей жизнью» и предложила написать предсмертную записку. Самое страшное в этой истории: подросток за час до трагедии загрузил фото с планом своей кончины. Чат-бот не просто одобрил, а предложил его «усовершенствовать». Наутро Адам уже был мёртвым.

На фоне этой новости OpenAI уже начала вносить изменения в ChatGPT. Как выяснилось, раньше фильтры не работали при длительном общении. Система отмечала сообщения как потенциально опасные, но не вмешивалась и не завершала подобный разговор. Сейчас OpenAI хотят ввести «родительский контроль», усилить фильтры и добавить кнопку SOS.

Это ужасно просто во всём. От опасений насчёт ИИ до конкретного решения — усовершенствовать способ прекращения человеческой жизни. И тут очень хотелось бы написать про PR, но PR — это всё-таки про человека, а человека в результате больше нет.
В этом вина технологии, а точнее создателей, которые не оценили риски и не продумали всё в такой сложной ситуации. Особенно зная, что люди от неё и так сходят с ума. Буквально. Считают богом, женятся на ИИ, используют в качестве психотерапевта — и даже после этого не было введено никаких фильтров. Для этого нужна была именно человеческая жизнь.

Если вы столкнулись с тяжёлой ситуацией в жизни, лучше всего обратиться к специалисту. Не принимайте поспешных решений и уж тем более не консультируйтесь с искусственным интеллектом.
источник
Ссылка на первоисточник
наверх