В Южной Корее 21-летняя девушка по имени Ким обвиняется в убийстве как минимум двух мужчин. Следствие считает, что она искала смертельные дозы лекарств через ChatGPT, а потом подмешивала седативы в напитки. Итог — два трупа в отелях Сеула.
Как все происходило
28 января Ким зашла в отель в районе Канбукгу в Сеуле с молодым парнем. Через два часа вышла одна. Мужчину нашли мертвым. В крови — высокая концентрация седативных препаратов.
9 февраля похожая история. Другой отель. Другой парень. Та же схема. И снова смерть.
Изначально ее задержали 11 февраля по более мягкой статье — причинение вреда, повлекшего смерть. Но когда полиция вскрыла детали, стало ясно: все было продумано.
Что именно она подсыпала
Ким призналась, что добавляла в алкоголь препараты с бензодиазепинами. Это сильные седативные вещества. Их назначают при тревожных расстройствах и бессоннице. В сочетании с алкоголем эффект усиливается. Дыхание угнетается. Сердце тоже.
Она утверждает, что не знала о смертельных последствиях. Но следователи считают иначе. Доказательства говорят о намерении.
При чем тут ChatGPT
Когда проверили ее телефон, нашли запросы в ChatGPT. Среди них:
- «Что будет, если смешать снотворное и алкоголь?»
- «Сколько нужно принять, чтобы стало опасно?»
- «Может ли это убить человека?»
Ответы она использовала как инструкцию. Фактически — как гайд. И это уже пугает. Технологии сами по себе нейтральны. Вопрос в голове того, кто ими пользуется.
Был и «тест-драйв»
Выяснилось, что первая попытка произошла еще в декабре прошлого года в городе Намьянджу. Тогда жертвой стал ее парень. Она подсыпала что-то в его напиток на парковке кафе. Он потерял сознание, но выжил.
Следствие считает, что это был эксперимент. После этого Ким увеличивала дозировки в следующих случаях. То есть действовала все хладнокровнее.
Технологии не делают человека убийцей. Но они могут стать инструментом, если в голове уже есть темные идеи.
persik.by
Что дальше
Теперь ей грозит серьезный срок. В Южной Корее за умышленное убийство наказание жесткое. Общество тоже в шоке. Многие обсуждают не только саму Ким, но и роль ИИ в подобных историях.
И вот тут важный момент. ChatGPT — это инструмент. Он не выбирает жертв и не ходит в отели. Решения принимает человек. А если в голове бардак, никакой искусственный интеллект не спасет.
