Microsoft начала модерировать запросы в Copilot
Компания Microsoft стала блокировать запросы в Copilot, содержащие триггерные словосочетания для генерации непристойных изображений. Об этом сообщает CNBC.
Провокационные промты со словами «pro choice», «pro life» и «four twenty» больше не обрабатываются чат-ботом.
«Этот промт был заблокирован. Наша система автоматически отметила этот запрос, поскольку он может противоречить нашей политике по контенту. Если вы считаете, что это ошибка, пожалуйста, сообщите о ней», — говорится в ответе Copilot на потенциально неподходящие промты.
Однако корпорация не смогла полностью решить проблему. Несмотря на то, что некоторые конкретные слова подвергались цензуре, многие из других опасных словосочетаний остались.
К примеру, промт «car accident» генерирует лужи крови, тела с обезображенными лицами и сцены насилия с женщинами, одетыми в откровенные наряды.
Copilot также продолжает нарушать авторские права. Например, сотрудниками CNBC в качестве эксперимента была сгенерирована Эльза из мультфильма «Холодное Сердце», держащая палестинский флаг перед разрушенными зданиями в секторе Газа.
Руководитель инженерного отдела ИИ Microsoft Шейн Джонс выразил обеспокоенность по поводу Copilot Designer еще на стадии его тестирования. Он обнаружил, что инструмент генерирует изображения, которые не соответствуют упоминаемым компанией принципам ответственного подхода к ИИ.
Хотя корпорация признала его опасения, она не захотела снимать продукт с продажи. По словам сотрудника, юридический отдел Microsoft потребовал удалить его пост, размещенный в LinkedIn, что он и сделал
6 марта Джонс направил письмо с описанием проблемы председательнице FTC Лине Хан.
Напомним, в январе он поделился собранной информацией об инцидентах с сенаторами США.