• В Беларуси
  • Наука
  • Интернет и связь
  • Гаджеты
  • Игры
  • Оружие
  • Архив новостей
    ПНВТСРЧТПТСБВС


По мнению ООН, присвоение женских полов цифровым ассистентам, таким как Apple Siri и Amazon Alexa, помогает в закреплении вредных гендерных предрассудков, а также поощряет сексистские и оскорбительные выражения со стороны пользователей. Об этом сообщает Guardian.

Отчет ЮНЕСКО называется «Я бы покраснела, если б могла» — это обычный ответ голосового помощника Apple Siri на провокационные вопросы или попытки флирта. Например, так Сири отзывается на фразу: «Ты шлюха». Alexa в этом случае произносит: «Ну, спасибо за обратную связь».

Авторы отчета считают, что женщин-помощников часто изображают как «жаждущих угодить». «Поскольку речь большинства голосовых помощников является женской, она посылает сигнал о том, что женщины… покорные помощники, доступные по нажатию кнопки или с помощью грубой голосовой команды, такой как „Эй“ или „Окей“», — сказано в отчете. Кроме того, цифровые ассистенты дают «слабые или извиняющиеся ответы» на злоупотребления или критику со стороны пользователя, выполняют команды и отвечают на запросы независимо от их тона или враждебности. По мнению ЮНЕСКО, во многих сообществах это «усиливает общепринятые предрассудки в отношении пола и того, что женщины подчинены и терпимы к плохому обращению».

В документе также говорится, что в таких фирмах большинство работников — мужчины, которые создали системы искусственного интеллекта и «заставляют феминизированных цифровых помощников приветствовать словесные оскорбления при помощи флирта «поймай меня, если можешь».

Напомним, что в марте группа активистов представила голосового ассистента Q с абсолютно нейтральным бесполым голосом.

-10%
-35%
-25%
-20%
-10%
-10%
-27%
-35%
0066790