В поисках ответственного AI. Но что если начать действовать?

Искусственный интеллект развивался долгие годы, но только сегодня он готов открыть свой истинный потенциал. В том числе, в государственном управлении. Однако, этот потенциал может дать как великие блага, так и принести большие бедствия. Чтобы избежать последнего сценария, необходимо создать систему ИИ-регулирования. Но как? Не стоит рассчитывать на то, что правовые и политические методы будут успевать за развитием технологии. А значит, необходимо строить ИИ-экосистемы с внутренней системой сдержек и противовесов. В последние два года активно обсуждались принципы работы таких экосистем. Пришла пора поговорить о том, что делать? Причем, прямо сейчас.

В поисках ответственного ИИ

В последние два года мы наблюдаем активный поиск принципов работы ответственного ИИ. Началось все с корпораций, которые таким образом отреагировали на растущую критику со стороны политиков и социума. Потом к этом подключились эксперты со всего мира. Однако, наиболее известны европейские и американские предложения.

  • принципы ИИ Асиломар, разработанные под эгидой Института “будущее жизни”, 2017
  • Монреальская Декларация по ответственному ИИ, разработанная под эгидой Монреальского университета, по итогам форума по социально ответственному развитию ИИ (2017). Декларация все еще открыта для доработок, 2018
  • IEEE Глобальная инициатива. Документ, разработанный с участием 250 мировых лидеров, и ставящий в качестве приоритета роста благосостояния человека путем использования автономных и интеллектуальных системам, 2017
  • EGE, этические принципы, от Европейской группы по этике в науке и новых технологиях Европейской комиссии, 2018
  • пять всеобъемлющих принципов для Кодекса ИИ, предложенных в пункте 417 доклада Комитета по искусственному интеллекту Палаты лордов Великобритании, 2018
  • принципы «Партнерства по ИИ», 2018

В сумме они дают 47 принципов, 5 из которых присутствуют в тех или иных формулировках во всех вариантах. Также можно выделить от 4 до 6 смысловых групп, присутствующих в том или ином большинстве документов.

Эти принципы охватывают практически все актуальные темы развития ИИ. В этой связи интересна работа Institute Future of life, который выделил таких четырнадцать тем, и описал, какими принципами они могут регулироваться, используя для этого как «общественные», так и корпоративные решения.

Соблюдение под угрозой

Обилие теоретических разработок с именитыми авторами и подписантами говорит о том, что несмотря все старания, сегодня мы все еще не имеем согласованных принципов развития ответственного ИИ.

Более того, есть исследования, проведенные в США, свидетельствующие, что сами по себе, вне экосистемы, этические ИИ-принципы не работают.

В последнее время такие экосистемы активно пытаются строить в Европе, однако и тут пока еще далеко до удовлетворительного результата. Результаты исследования «Mapping regulatory proposals for artificial intelligence in Europe» показывают, что наиболее «продвинутые» документы в области ответственного ИИ принимаются на уровне ЕС. Постепенно их отдельные положения переходят в документы в Германии, Франции, Великобритании, и намного позднее — в нормативные акты или декларации других стран Евросоюза. Например, Дания, которая сегодня активно реализует Стратегию цифрового роста, публично не декларирует европейские этические принципы развития ИИ.

Меньше слов, больше дела

В этой связи интересна инициатива AI4PEOPLE, которая разработала 20 первых шагов для создания экосистемы ответственного ИИ уже сегодня. Рекомендации подготовлены для ЕС, основываются на демократических ценностях (несмотря на критику их как устаревших), и разбиты на четыре части: оценка, развитие, мотивация, поддержка.

Оценка

1. Оценить потенциал существующих институтов (начать с судебной системы), которые должны защитить потребителя от ошибок или ущерба, причиненного системами искусственного интеллекта. (см. рекомендацию 5)

2. Определить какие задачи и решения не следует делегировать системам ИИ, исходя из социальных ценностей и общественного мнения (в т.ч., его прогнозных моделей), и с учетом существующего законодательства. Для этого организуется масштабный диалог с участием всех заинтересованных сторон. (см. рекомендацию 17).

3. Оценить насколько сами нормативные акты основаны на этике, и подходит ли существующая законодательная основа для поддержки технологических разработок. Отдельной оценки заслуживает то, как правовая система способна реагировать на неотложные или непредвиденные проблемы.

Развитие

4. Развивать ИИ-системы так, чтобы отдельные лица всегда могли получить фактические, прямые и четкие разъяснения процесса принятия решений, особенно в случае нежелательных последствий. Вероятно профессиональные ассоциации должны быть вовлечены в этот процесс наряду с экспертами из науки, бизнеса, права и этики.

5. Обеспечить возможность квалифицированного рассмотрения алгоритмических решений в суде. Для этого разработать правовые процедуры, усовершенствовать ИТ-инфраструктуру правосудия, подготовить специалистов. Решить, что делать, если, например, раскрытие информации об алгоритмах создает серьезные риски для национальной безопасности.

6. Разработать механизмы аудита ИИ-систем для предупреждения нежелательных последствий. Например, в сотрудничестве со страховым сектором. Эффективным также может быть механизм солидарности. Однако, опыт показывает, что может пройти несколько десятилетий, прежде чем общество догонит технологию в своих поисках баланса. Поэтому чем раньше пользователи и правительства будут вовлечены в эту работу, тем короче будет отставание.

7. Создать надежный механизм возмещения причиненного вреда ИИ-технологией. Иначе доверия к системе не будет. Интересным может быть опыт аэрокосмической промышленности, которая уже имеет проверенную систему рассмотрения нежелательных последствий.

Эта рекомендация может быть выполнена только после рекомендации 1 о создании институтов. Если их нет, то, как минимум, должны появиться

· профильный омбудсмен

· возможность действенной регистрации жалобы, похожий на запрос о свободе информации

· механизмы страхования ответственности

Деятельность этих институций должна строиться на основе рекомендации 4 о прозрачности ИИ.

8. Определить понятные потребителю показатели надежности продуктов и услуг ИИ. На первом этапе это станет рыночным бенчмаркингом. Со временем приведет к разработке более безопасных и социально полезных ИИ-систем. А в долгосрочной перспективе поможет создать систему сертификации и разработать профессиональные кодексы поведения (см. рекомендацию 18).

9. Создать новое надзорное агентство ЕС за продуктами, ПО, системами или услугами ИИ (отталкиваясь от рекомендации 8).

10. Запустить европейскую «обсерваторию» для ИИ. Ее миссия будет заключаться в наблюдении за развитием событий, в содействии обсуждению и достижению консенсуса, в создании хранилища литературы и программного обеспечения по ИИ, и в выпуске поэтапных рекомендаций и руководящих принципов для действий

11. Подготовить правовые документы и договорные шаблоны с целью создания основы для беспрепятственного и плодотворного сотрудничества человека и машины в рабочей среде будущего, отталкиваясь от идей «Европы, которая защищает» и «инклюзивных инноваций». Создать Европейский фонд корректировки ИИ по аналогии с Европейским фондом корректировки глобализации.

Мотивация (требует отдельного финансирования)

12. Профинансировать разработку и использование технологий искусственного интеллекта в рамках ЕС, которые являются социально предпочтительными (а не просто приемлемыми) и экологически дружелюбными (не просто безвредными, а благоприятными к окружающей среде). На их основе разработать методологию для оценки других ИИ.

13. Стимулировать финансово устойчивую, расширенную и последовательную европейскую исследовательскую деятельность. Результаты исследований максимально популяризовать, продвигая идею «ИИ для социального блага». Это позволит сформировать противовес существующим тенденциям развивать ИИ с меньшими социальными возможностями.

14. Поддержать междисциплинарное сотрудничество и дебаты о пересечении технологий, социальных вопросов, правовых исследований и этики. Это позволит удерживать технические инновации в правильном направлении и сократить отставание (см. рекомендацию 6)

15. Профинансировать включение этических, правовых и социальных аспектов в исследовательские проекты ИИ, а также проводить регулярные обзоры законодательства, чтобы понять — способствует ли оно социально позитивным инновациям. В этом случае в основе технологии ИИ будет этика, а политика будет ориентирована на инновации.

16. Провести тестирование систем искусственного интеллекта в т.н., «песочницах», «живых лабораториях», «дерегулируемых зонах», на «тестовых магистралях», чтобы на практике понять предпочтительный уровень риска общества (в дополнение к рекомендации 2), решить вопросы ответственности, варианты регулирования и остальное.

17. Исследовать общественное восприятие ИИ, сформировать механизмы консультаций с общественностью для разработки политики и правил, связанных с ИИ. Эта должно постепенно привести к совместному созданию политики, стандартов, передовой практики и правил.

Поддержка

18. Создание саморегулируемых кодексов поведения для специалистов, связанных с данными и ИИ (см. рекомендацию 8), как это сделано в других социально чувствительных областях: здравоохранение и юриспруденция. Это приведет к соответствующей сертификации «этического ИИ» и всем будет понятно, чего требовать от поставщиков. Это также поможет ограничить эффективность современных методов манипулирования вниманием.

19. Способствовать тому, чтобы корпоративные советы директоров брали на себя ответственность за этические последствия ИИ-технологий своих компаний. Это потребует либо их дополнительной подготовки, либо, например, создания комитета по этике с полномочиями внутренней ревизии и обязательствами готовить «корпоративные этические обзоры» соответствия установленным этическим принципам

20. Поддержка создания учебных программ и мероприятий по информированию общественности об общественном, правовом и этическом воздействии искусственного интеллекта. Это должно затронуть как школу (рост общего уровня цифровой грамотности), так и отдельные целевые группы: сотрудников ИИ-компаний, научных работников, гражданских служащих, политиков и журналистов. И, конечно, запуск информационных программ для широкой общественности