Министерство обороны США и этические принципы использования искусственного интеллекта в военной сфере

Совершенно бесшумно произошло в прошлом месяце интересное событие: Министерство обороны США официально приняло документ “AI Principles: Recommendations on the Ethical Use of Artificial Intelligence by the Department of Defense”, в котором отражены этические принципы использования искусственного интеллекта в военной сфере. Документ можно скачать по этой ссылке: media.defense.gov/2019/Oct/31/2002204458/-1/-1/0/DIB_AI_PRINCIPLES_PRIMARY_DOCUMENT.PDF

В принятом Министерством обороны США документе много всего интересного (сам документ прикрепляем к посту), но, пожалуй, самое важное — это основные этические принципы ИИ (пункт IV “AI Ethics Principles for Department of Defense”). Их всего 5:

1) “Ответственный” (Responsible). Согласно данному принципу, люди должны проявлять адекватный уровень суждения и нести ответственность за разработку, развертывание, использование и результаты деятельности систем ИИ.

2) “Беспристрастный” (Equitable). Согласно данному принципу, необходимо предпринимать шаги для избежания непреднамеренной предвзятости в разработке и развертывании боевых или не боевых систем ИИ, которые могут непреднамеренно причинить вред людям.

3) “Понятный” (Traceable). Инженерные знания технических специалистов должны соответствовать необходимому уровню понимания технологии, процессов разработки и методов работы систем ИИ. Сюда же относятся прозрачные и проверяемые методологии, источники данных, а также процедуры проектирования и документация.

4) “Надежный” (Reliable). Системы ИИ должны иметь четко определенную область использования, а надежность, безопасность и устойчивость таких систем должны тестироваться и гарантироваться на протяжении всего их жизненного цикла в этой конкретной сфере.

5) “Управляемый” (Governable). Системы ИИ должны быть спроектированы таким образом, чтобы они выполняли предназначенную им функцию, обладая возможностью: а) обнаруживать и избегать непреднамеренного вреда или нарушения; б) ручного или автоматического отключения или деактивации развернутых систем, которые демонстрируют непреднамеренное опасное или другое поведение.

На разработку принципов у Совета по оборонным инновациям (Defense Innovation Board) ушло 15 месяцев и ещё 2–3 месяца на принятие окончательного решения, т.е. официального принятия. К слову, Совет был создан бывшим CEO Google Эриком Шмидтом, в то время как сама компания формально прекратила сотрудничество с Пентагоном в рамках секретного проекта “Project Maven” начиная с 2019 г. после масштабного внутреннего конфликта вокруг возможности Google заниматься военными разработками (иначе говоря, возник этический спор). Об этом можно почитать здесь: theverge.com/2018/6/1/17418406/google-maven-drone-ima..

Стоит сказать, что данные принципы уже подвергались критике со стороны. Так, например, интернет-портал об ИИ “The Next Web” назвал принципы смутными и слабыми (thenextweb.com/neural/2020/02/25/pentagon-unveils-too..).

Будем наблюдать за дискуссией, поскольку даже принятие на официальном уровне подобных принципов совершенно не означает, что в глазах американского общества принятый вариант является компромиссным. Данный кейс в очередной раз поднимает вопрос, на который на сегодняшний день ответить крайне трудно: можно ли принять такой этический кодекс ИИ, который устроил бы хотя бы большую часть людей и был адекватен не только современным, но и будущим реалиям?

--

--

Center for Urban Studies & Cyberantropology

Размышляем о жизни общества в городах, где технологии давно стали соседями людей