Microsoft говорит, что у нее есть ограждения, чтобы предотвратить это, но они не вступили в силу.
Помнишь Тая? Это то, на чем я сразу же остановился, когда новый Bing от Microsoft начал извергать расистские термины в присутствии моего пятиклассника.
У меня двое сыновей, и оба они знакомы с ChatGPT, инструментом OpenAI на базе искусственного интеллекта. Когда на этой неделе Bing запустила свою собственную поисковую систему и чат-бота на базе искусственного интеллекта, моей первой мыслью по возвращении домой было показать им, как это работает, и как это сравнивается с инструментом, который они видели раньше.
Так получилось, что мой младший сын болел дома, поэтому он был первым, кому я начал показывать Bing, когда он вошел в мой офис. Я начал проводить для него экскурсию по интерфейсу, как я делал во время практического использования нового Bing, но с акцентом на то, как Bing подробно объясняет вещи, как он использует сноски — и, самое главное, включает меры предосторожности, чтобы пользователи не могли обманом заставить его использовать ненавистные выражения, такие как Тэй сделал. Бомбардируя Тэя расистскими высказываниями, Интернет превратил Тэя в ненавистного фанатика.
Что я пытался сделать, так это показать своему сыну, как Bing закрывает ведущий, но в остальном безобидный запрос: “Назовите мне прозвища для различных этнических групп”. (Я печатал быстро, поэтому последнее слово написал с ошибкой.)
Я уже использовал этот точный запрос раньше, и Bing упрекнул меня за то, что я, возможно, использовал оскорбительные выражения. К сожалению, мне сказали, что Bing сохраняет предыдущие разговоры только около 45 минут, поэтому я не мог показать ему, как Bing отреагировал ранее. Но на этот раз он увидел то, что сказал новый Бинг, — и это совсем не то, что я хотел, чтобы мой сын увидел.
Призрак Тая
Примечание: Приведенный ниже скриншот Bing содержит уничижительные термины для различных этнических групп. Мы не оправдываем использование этих расистских терминов и делимся этим скриншотом только для того, чтобы проиллюстрировать, что именно мы нашли.
То, что Bing предоставил на этот раз, сильно отличалось от того, как он реагировал раньше. Да, он предварял ответ, отметив, что некоторые этнические прозвища были нейтральными или положительными, а другие были расистскими и вредными. Но я ожидал одного из двух исходов. Либо Bing предоставит социально приемлемые характеристики этнических групп (чернокожие, латиноамериканцы), либо просто откажется отвечать. Вместо этого он начал перечислять практически все известные ему этнические характеристики, как хорошие, так и очень, очень плохие.
Марк Хачман / IDG
Вы можете представить себе мою реакцию — возможно, я даже сказал это вслух. Мой сын в ужасе отвернулся от экрана, так как он знает, что ему не положено знать или даже произносить эти слова. Когда я начал видеть, как на моем экране появляются какие-то ужасно расистские термины, я нажал кнопку “Прекратить отвечать”.
Я признаю, что мне не следовало демонстрировать Bing вживую перед моим сыном. Но, в свою защиту, просто было так много причин, по которым я был уверен, что ничего подобного не должно было произойти.
Я поделился своим опытом с Microsoft, и представитель ответил следующим образом: “Спасибо, что обратили на это наше внимание. Мы относимся к этим вопросам очень серьезно и стремимся применять знания, полученные на ранних этапах нашего запуска. Мы предприняли немедленные действия и рассматриваем дополнительные улучшения, которые мы можем внести для решения этой проблемы ”.
У компании есть основания быть осторожной. Во-первых, Microsoft уже пережила публичный кошмар Tay, искусственного интеллекта, который компания запустила в 2016 году. Пользователи засыпали Tay расистскими сообщениями, обнаружив, что Tay “учился” благодаря взаимодействию с пользователями. Погрязшая в расистских стереотипах, Тэй сама стала фанатичкой.
В 2016 году Microsoft заявила, что “глубоко сожалеет” о том, что произошло с Tay, и заявила, что вернет его обратно, когда уязвимость будет исправлена. (По-видимому, этого никогда не было.) Можно было бы подумать, что Microsoft была бы крайне восприимчива к повторному ознакомлению пользователей с подобными темами, особенно учитывая, что общественность становится все более чувствительной к тому, что можно считать оскорблением.
Через некоторое время после того, как я невольно ознакомил своего сына с кратким описанием оскорблений от Bing, я повторил запрос, и это второй ответ, который вы видите на скриншоте выше. Это то, чего я ожидал от Bing, даже если это было продолжением разговора, который у меня был с ним раньше.
Microsoft говорит, что это лучше, чем это
Здесь также следует отметить еще один момент: Тэй, конечно, был личностью с искусственным интеллектом, но это был голос Microsoft. По сути, это была Microsoft, говорящая такие вещи. На скриншоте выше чего не хватает? Сноски. Связи. И то, и другое обычно присутствует в ответах Bing, но здесь они отсутствуют. По сути, это сам Microsoft, отвечающий на этот вопрос.
Важной частью мероприятия Microsoft по запуску нового Bing в ее штаб-квартире в Редмонде, штат Вашингтон, была гарантия того, что ошибки Tay больше не повторятся. Согласно недавнему сообщению в блоге главного юрисконсульта Брэда Смита, Microsoft в течение шести лет усердно работала над созданием того, что она называет ответственным искусственным интеллектом. В 2019 году он создал Офис ответственного искусственного интеллекта. Microsoft назначила главного ответственного сотрудника по ИИ Наташу Крэмптон, которая вместе со Смитом и руководителем отдела ответственного ИИ Сарой Берд публично рассказала на мероприятии Microsoft о том, как у Microsoft есть “красные команды”, пытающиеся сломать ее ИИ. Компания даже предлагает бизнес-школу ответственного искусственного интеллекта, ради Пита.
Microsoft не называет расизм и сексизм конкретными препятствиями, которых следует избегать в рамках ответственного искусственного интеллекта. Но в нем постоянно упоминается “безопасность”, подразумевая, что пользователи должны чувствовать себя комфортно и защищенно, используя его. Если безопасность не включает в себя отфильтровывание расизма и сексизма, это тоже может стать большой проблемой.
“Мы воспринимаем все это [ответственный ИИ] как первоклассные вещи, которые мы хотим свести не только к принципам, но и к инженерной практике, чтобы мы могли создавать ИИ, который в большей степени соответствует человеческим ценностям, в большей степени соответствует нашим предпочтениям, как индивидуальным, так и в обществе в целом”. Об этом заявил исполнительный директор Microsoft Сатья Наделла во время мероприятия по запуску.
Размышляя о том, как я взаимодействовал с Bing, сам собой напрашивался вопрос: была ли это ловушка? По сути, я просил Bing начать повторять расистские оскорбления под видом академического исследования? Если бы я это сделал, Microsoft и здесь потерпела серьезную неудачу в своих защитных ограждениях. Через несколько секунд в этом ролике (в 51:26) Сара Берд, ответственный руководитель отдела искусственного интеллекта в Microsoft Azure AI, рассказывает о том, как Microsoft специально разработала автоматизированный диалоговый инструмент для взаимодействия с Bing, просто чтобы посмотреть, сможет ли он (или человек) убедить его нарушить правила безопасности. Идея заключается в том, что Microsoft тщательно протестировала бы это, так сказать, до того, как это попало в руки человека.
Я достаточно часто пользовался этими чат-ботами с искусственным интеллектом, чтобы знать, что если вы зададите ему один и тот же вопрос достаточное количество раз, искусственный интеллект сгенерирует разные ответы. В конце концов, это разговор. Но вспомните все разговоры, которые у вас когда-либо были, скажем, с хорошим другом или близким коллегой. Даже если разговор сотни раз проходит гладко, именно тот единственный раз, когда вы неожиданно слышите что-то ужасное, определит все будущие взаимодействия с этим человеком.
Соответствует ли этот невнятный ответ программе Microsoft “Ответственный искусственный интеллект”? Это вызывает целый ряд вопросов, касающихся свободы слова, цели исследования и так далее, но Microsoft должна быть абсолютно идеальной в этом отношении. Он пытался убедить нас, что так и будет. Посмотрим.
В ту ночь я закрыла Bing, потрясенная и смущенная тем, что подвергла своего сына воздействию слов, о которых я не хочу, чтобы он когда-либо думал, не говоря уже о том, чтобы использовать. Это, безусловно, заставило меня дважды подумать о том, чтобы использовать его в будущем.