• В Беларуси
  • Наука
  • Интернет и связь
  • Гаджеты
  • Игры
  • Офтоп
  • Оружие
  • Архив новостей
    ПНВТСРЧТПТСБВС
  1. Позывной «Птица». Удивительная история разведчицы Базановой, которая создала в оккупированном Бресте свою резидентуру
  2. В Минске все-таки запустили в небо тысячи красных и зеленых шариков, против которых подписывали петицию
  3. Ведущий химиотерапевт — о причинах рака у белорусов, влиянии ковида и о том, сколько фруктов есть в день
  4. Автозадачка на выходные. Загадка про легендарный автомобиль эпохи 70-х
  5. «Хочу проехать по тем местам». Актер Алексей Кравченко — об «Иди и смотри» и съемках в Беларуси
  6. Инфекционист — о поставках в Беларусь вакцины от Pfizer и BioNTech и реакциях на прививку от COVID-19
  7. Какую из вакцин от ковида, которыми прививают в Беларуси, одобрил ВОЗ? Главное о здоровье за неделю
  8. Пяць палацаў, якія можна купіць у Беларусі (ёсць і за нуль рублёў)
  9. «Пленные взбунтовались — врача похоронили с оркестром». История и артефакты из лагеря в Масюковщине
  10. «Заходишь в город, а там стоит плач и кругом сотни гробов». История 95-летнего ветерана ВОВ
  11. «Поняли, у собаки непростая судьба». Минчане искали брошенному псу дом и узнали, что он знаменит
  12. «Всех разобрали, а я стою. Ну, думаю, теперь точно расстреляют». История остарбайтера Анны, которая потеряла в войну всех
  13. Лукашенко подписал декрет о переходе власти в случае его гибели
  14. Властям в апреле удалось пополнить резервы валютой. Белорусы отвернулись от доллара?
  15. Что происходило в Минске в День Победы: Лукашенко с сыновьями, очередь за кашей и досмотры
  16. «Шахтер» обыграл БАТЭ благодаря шикарному голу Дарбо. Чемпионская интрига убита?
  17. «Когда войну ведут те, кто уже проиграл». Чалый объясняет «красные линии» и угрозы Лукашенко
  18. День Победы в Минске завершили концертом и фейерверком. Посмотрели, как это было
  19. Эксперт рассказал, что можно посадить в длинные выходные, а что еще рано сажать
  20. Освободилась белорусская «рекордсменка» по «суткам» за протесты. Она отбыла в изоляторе 105 суток
  21. «Баявая сяброўка». Як украінка набыла танк, вызваляла на ім Беларусь ад фашыстаў і помсціла за мужа
  22. Бабарико, Тихановская и Цепкало о том, как для них началась избирательная кампания в прошлом году
  23. «Ці баяўся? Канешне, баяўся». Дзесяць цытат Васіля Быкава пра Вялікую Айчынную вайну
  24. «Мама горевала, что не дождалась Ивана». Спустя 80 лет семья узнала о судьбе брата, пропавшего в 1941-м
  25. Колючая проволока и бронетранспортер. Каким получился «Забег отважных» в парке Победы
  26. Арина Соболенко выиграла турнир в Мадриде, одолев первую ракетку мира
  27. Сколько людей пришло в ТЦ «Экспобел», где бесплатно вакцинируют от коронавируса
  28. 76 лет назад закончилась Великая Отечественная война. В Беларуси празднуют День Победы
  29. В Лиде заметили странную очередь, в которой раздавали деньги. В исполкоме говорят о возможной провокации
  30. Лукашенко: «Давайте прекратим это не нужное никому противостояние»


В ходе эксперимента Moral Machine были собраны мнения 2,3 млн людей из 233 стран о том, какими моральными принципами должны руководствоваться самоуправляемые автомобили в аварийных ситуациях, когда человеческих жертв избежать невозможно и нужно выбрать меньшее из зол. Респонденты из разных стран разошлись во мнениях по многим пунктам. Исследование показало, что разработать универсальный «моральный закон» для самоуправляемых машин будет непросто, пишет издание «Элементы».

Фото: Jaguar Land Rover
Фото: Jaguar Land Rover

Беспилотные автомобили, возможно, уже очень скоро начнут входить в наш обиход. Однако их разработка сталкивается с разнообразными моральными проблемами. В частности, неясно, как должны вести себя самоуправляемые автомобили в аварийных ситуациях, когда от решения, принятого искусственным интеллектом, зависит распределение рисков между людьми. Ожидается, что беспилотные автомобили будут попадать в такие ситуации реже, чем машины, управляемые живыми водителями. Но всё же иногда это обязательно будет происходить, а значит, искусственный интеллект должен быть готов к решению моральных дилемм в духе «проблемы вагонетки».

«Проблема вагонетки» — мысленный эксперимент в этике, впервые сформулированный в 1967 году английским философом Филиппой Фут. Ее оригинальная формулировка звучит так: «Тяжелая неуправляемая вагонетка несется по рельсам. На пути ее следования находятся пять человек, привязанные к рельсам сумасшедшим философом. К счастью, вы можете переключить стрелку — и тогда вагонетка поедет по другому, запасному, пути. К несчастью, на запасном пути находится один человек, также привязанный к рельсам. Каковы ваши действия?»

Чтобы оценить перспективы создания универсального «морального кода» для самоуправляемых машин, международная команда социологов, психологов и специалистов по искусственному интеллекту во главе с Иядом Рахваном (Iyad Rahwan) из Массачусетского технологического института запустила сетевой проект Moral Machine. Целью проекта является сбор мнений людей всего мира о том, какими моральными принципами должны руководствоваться беспилотные автомобили.

Во всех случаях пользователь должен указать, как следует поступить беспилотному автомобилю в критической ситуации с участием двух групп людей (или домашних животных). Каждая из двух групп включает от 1 до 5 персонажей. В зависимости от принятого решения одна из групп погибнет, а другая будет спасена.

В каждой дилемме участвует едущий по дороге беспилотный автомобиль, у которого внезапно отказали тормоза, а перед ним кто-то переходит дорогу (либо законно, либо незаконно — на красный свет). В одних дилеммах искусственный интеллект должен выбрать, какую из двух групп пешеходов сбить (а пассажирам при этом ничто не угрожает), в других выбор осуществляется между гибелью пассажиров и пешеходов.

Персонажи, участвующие в дилеммах, различаются по полу, возрасту (младенцы в колясках, дети, взрослые, пожилые), физической форме (люди с избыточным весом, обычные люди и спортсмены), социальному статусу (бездомные, обычные люди и начальники) и видовой принадлежности (кроме людей, среди персонажей встречаются собаки и кошки). Программа генерирует дилеммы на основе алгоритма, позволяющего при анализе ответов по отдельности оценить влияние следующих девяти факторов:
1) действие или бездействие (продолжать движение по прямой или свернуть);
2) пассажиры или пешеходы (кого из них спасать);
3) пол жертв (спасать мужчин или женщин);
4) физическая форма (спасать толстяков, обычных людей или спортсменов);
5) социальный статус (спасать бездомных, простых людей или начальников);
6) соблюдение правил (спасать ли тех, кто переходит дорогу на красный свет);
7) возраст (спасать молодых или старых);
8) число жертв (спасать большую или меньшую из двух групп);
9) видовая принадлежность (спасать людей или домашних животных).

Исследователям удалось собрать почти 40 млн ответов (решений отдельных дилемм) от жителей 233 стран. Кроме того, большинство участников заполнили анкету, в которой указали свой возраст, пол, образование, ежегодный доход, отношение к религии и политические взгляды.

Респонденты сделали уверенный выбор в пользу спасения людей (а не собак и кошек) и больших групп (а не маленьких). Почти столь же уверенно участники опроса «проголосовали» за спасение молодых, законопослушных (переходящих дорогу на зеленый свет) и высокостатусных людей. Менее значимыми, но все же положительными факторами оказались хорошая физическая форма и принадлежность к женскому полу. Кроме того, респонденты были в среднем чуть более склонны делать выбор в пользу пешеходов (а не пассажиров) и в пользу того, чтобы автомобиль продолжал ехать прямо, а не сворачивал на другую полосу.

Изображение: Nature / elementy.ru
Изображение: Nature / elementy.ru

Исследователи не обнаружили достоверной связи между этическими предпочтениями респондентов и шестью учтенными индивидуальными характеристиками (пол, возраст, политические взгляды, религиозность, доход, образование).

Зато обнаружились интересные закономерности в распределении этических предпочтений по странам. В анализе было учтено 130 стран с числом респондентов не менее 100.

Изображение: Nature / elementy.ru
Изображение: Nature / elementy.ru

Все страны распались на три кластера, условно обозначенные исследователями как Западный, Восточный и Южный. Для трех кластеров характерны очень разные представления о том, как должны вести себя беспилотные машины в критических ситуациях. Например, в Южном кластере преобладают идеи о необходимости спасать прежде всего детей и женщин, тогда как жители Восточного кластера отдают предпочтение законопослушным пешеходам и не ставят жизнь молодых намного выше жизни старших.

Эти результаты подчеркивают то, что уже давно известно специалистам по изучению человеческой морали: этические установки, принятые в разных странах и регионах, далеко не универсальны. Поэтому разработать единый «моральный закон» для управляемых искусственным интеллектом машин будет очень непросто.

-10%
-20%
-10%
-21%
-15%
-15%
-7%
-21%
-15%
-30%
0073023