Активные разработки в области создания систем искусственного интеллекта привели к тому, что такие системы начинают постепенно внедряться в вооружения и военную технику. В частности, разрабатываются системы, позволяющие беспилотникам автоматически обнаруживать и приоритезировать цели, или дронам выполнять роль ведомых для пилотируемых летательных аппаратов. Ведутся и разработки систем искусственного интеллекта, способных расшифровывать радиопередачи. В будущих военных разработках искусственный интеллект будет иметь все большее значение.
Активное внедрение систем искусственного интеллекта в вооружение и военную технику вызывает множество вопросов этического характера. В частности, пока не понятно, насколько правомерно применять в войне автономные системы вооружения и какую угрозу они представляют для мирного населения, оказавшегося в зоне боевых действий.
В общей сложности Пентагон сформулировал пять этических принципов использования систем искусственного интеллекта в военных целях:
- Ответственность. Военный персонал должен с надлежащим вниманием оценивать действия искусственного интеллекта, оставаясь полностью ответственным за разработку, развертывание и использование систем искусственного интеллекта.
- Беспристрастность. Министерство обороны США должно предпринимать шаги для минимизации нежелательных отклонений в возможностях систем искусственного интеллекта.
- Прослеживаемость. Военные системы искусственного интеллекта и их возможности должны разрабатываться и развертываться таким образом, чтобы персонал имел должный уровень понимания технологии, процессов разработки и методов применения. Для военного персонала должны быть доступны методологии, данные и документация, относящиеся к используемым системам искусственного интеллекта.
- Надежность. Возможности военных систем искусственного интеллекта должны быть однозначными, четко сформулированными. Безопасность и эффективность таких возможностей должны проверяться испытаниями и подтверждаться на протяжении всего срока службы.
- Подчинение. Военные системы искусственного интеллекта должны полностью исполнять предназначенные для них задачи, но военные должны иметь возможность обнаруживать и предотвращать нежелательные последствия использования искусственного интеллекта. Военные также должны иметь возможность выводить из боя или выключать системы искусственного интеллекта, у которых были замечены отклонения в работе.
Пентагон также назначил Объединенный центр искусственного интеллекта ответственным за исполнение принципов использования систем искусственного интеллекта. В общей сложности на консультации с разработчиками и научными организациями, а также формулирование принципов использования систем искусственного интеллекта министерство обороны США потратило 15 месяцев. При этом некоторые эксперты отметили расплывчатость принятых формулировок и отсутствие четкого свода правил, что военным следует и что не следует делать при разработке и использовании систем искусственного интеллекта.
В сентябре прошлого года начальник Объединенного центра искусственного интеллекта генерал-лейтенант Джек Шэнэхэн заявил, что военные не станут оснащать системами искусственного интеллекта центры управления стратегическим вооружением. По словам Шэнэхэна, за запуски баллистических ракет всегда будут отвечать люди, потому что решение о применении оружия массового поражения должно быть прерогативой исключительно человека.
Комментарии:
Авторизуйтесь, чтобы оставить отзыв