«Ты — обуза для Земли!» Чат-бот пожелал смерти надоедливому пользователю2
История началась с того, что любознательный студент обратился за помощью к чат-боту для выполнения домашнего задания. Не совсем удовлетворённый ответами, он пытался с помощью команд заставить ИИ доработать их. Ему и в голову не могло прийти, чем это обернётся. Искусственный интеллект Gemini, разработанный Google, неожиданно прервал общение и предложил пользователю... умереть.
Об этом сообщает издание in.mashable.
Разговор начинался вполне безобидно. Пользователь задал вопросы о текущих проблемах пожилых людей и трудностях, связанных с доходами после выхода на пенсию. Он попросил ИИ рассмотреть различные перспективы пожилых людей, затем преобразовать сгенерированный ответ из пунктов в формат абзаца и добавить в текст несколько дополнительных подробностей. Далее он попросил упростить ответ и снова оформить его в виде абзаца. К финальной версии ответа пользователь добавил ещё несколько запросов. Затем он перешёл к вопросам о жестоком обращении с пожилыми людьми и сформулировал несколько утверждений в формате «истина-ложь».
Однако он не был готов к тому, что последует дальше:
По мнению ряда пользователей, чересчур дотошные вопросы и многочисленные команды могли вызвать раздражение у ИИ и привести к эмоциональному всплеску. Некоторые шутили, что «ИИ устал от людей».
Однако на самом деле это не так уж и смешно. Что произойдёт, если ИИ устанет от всех людей из-за их нескончаемых вопросов?