25 апреля, четверг

Бюрократия восставших машин: Как Евросоюз регулирует искусственный интеллект?

28 мая 2019 / 18:13
эксперт ИРИ

Начиная с 2017 года, европейские чиновники ежегодно собираются в Брюсселе для проведения Цифрового Дня Европейского Союза.

В рамках однодневного мероприятия проводятся панельные дискуссии по вопросам развития цифрового пространства и подписываются резолюции о взаимодействии в различных сферах развития единого цифрового рынка. В этом году в рамках мероприятия представителями стран - членов ЕС было подписано три декларации: о кооперации в сфере цифровизации культурного наследия, о цифровизации агропромышленной сферы EC, и о стимулировании участия женщин в цифровой отрасли. Также в рамках мероприятия был презентован ключевой документ, который очерчивает вектор развития технологий в сфере искусственного интеллекта в странах ЕС – этические принципы искусственного интеллекта.

 

Зарегулируй это

Проблема правового регулирования искусственного интеллекта (ИИ) уже второй год подряд занимает центральное место в повестке цифрового дня ЕС. Так, в апреле 2018 была организована экспертная группа по разработке этических принципов развития искусственного интеллекта, а к декабрю был представлен черновой вариант документа. Спустя пять месяцев доработок, консультаций, и более 500 комментариев полученных от европейских и международных стейкхолдеров – рабочая группа презентовала окончательную версию документа.

В документе прописаны три основных принципа для развития ИИ, семь ключевых требований, а также представлен опросник из 131 пункта, который должен помочь организациям оценить, насколько их деятельность соответствует этическим требованиям Европейского Союза. Согласно принципам, искусственный интеллект должен быть законопослушен – исполнять все законные требования, этичен – соблюдать этические нормы и ценности, технологически целостным – не допускающим ошибок, которые могут создать угрозу человеческим жизням и причинить экономический вред.

Из трёх принципов выводятся семь ключевых условий, которым системы искусственного интеллекта должны соответствовать, чтобы считаться благонадёжными:

  • Человеческий надзор. В системы должны быть внедрены эффективные механизмы человеческого надзора. На каждом этапе развития системы ИИ человек должен понимать вектор развития системы, а также иметь возможность отследить потенциальные риски.
  • Технологическая целостность и безопасность. ИИ-системы должны быть точными, технически надёжными и максимально безопасными. В архитектуру должны быть внедрены обязательные механизмы по минимизации и предотвращению потенциального вреда окружающим.
  • Конфиденциальность и управление данными. Система должна обеспечивать защиту персональной информации и обладать эффективными инструментами управления данными.
  • Прозрачность. Данные, система и бизнес-модель искусственного интеллекта должны быть прозрачны. Для этого должны быть внедрены механизмы отслеживания поведения системы, а алгоритмы принятия решений системой должны быть объяснимы для любого заинтересованного лица. Люди должны осознавать, что они взаимодействуют с искусственным интеллектом, а также быть проинформированы о возможностях и ограничениях системы.
  • Многообразие, недопущение дискриминации, справедливость. Система должна быть защищена от любой ангажированности, поскольку это может иметь негативные последствия, начиная от маргинализации наименее защищённых групп населения и заканчивая усилением феномена общественной дискриминации. Системы ИИ должны быть доступны для всех, вне зависимости от их физиологических и культурных аспектов.
  • Благополучие общества и окружающей среды. Системы ИИ должны работать на пользу всех людей, включая будущие поколения. Соответственно, они должны быть экологически безопасными и рассчитанными на долгосрочную перспективу. Также системы должны брать во внимание экологическую ситуацию, включая в анализ всех живых существ, а социальные последствия их деятельности должны тщательно оцениваться.
  • Подотчётность. В системы должны быть внедрены механизмы, которые обеспечивают подотчётность результатов их деятельности.Система, её алгоритмы и процессы должны быть доступны для аудита. Также в систему должны быть внедрены приемлемые и доступные инструменты внесения корректировок.

 

Зарегулируй то…

Несмотря на заинтересованность многих ведущих функционеров ЕС в скорейшем развитии централизованного законодательства в сфере искусственного интеллекта, на данный момент документ не обладает юридической силой, являясь докладом экспертной группы. Выпуск официальных рекомендаций экспертной группы является лишь одним из первых шагов в длинной цепочке законотворческого процесса ЕС.

Следующем шагом будет запуск пилотного процесса при добровольном участии общественных и государственных организаций ЕС. Для технологических организаций участие в пилоте сулит ряд очевидных выгод. Во-первых, это возможность заблаговременно подготовить организационную среду к значительным изменениям в законодательном ландшафте, возможность заблаговременно внести соответствующие изменения и добиться соблюдения законодательных требований, которые однажды вступят в силу. Во-вторых, это возможность влиять на законотворческую инициативу ЕС, ведь именно на базе обратной связи ключевых стейкхолдеров будут строиться законодательные требования к технологическим корпорациями. Наконец, для корпораций участие в подобных программах – эффективный PR-ход, демонстрация приверженности инновациям и принципам социальной ответственности. Для экспертов и функционеров ЕС консультации с бизнесом в рамках пилота помогут создать законы, снижающие риски, связанные с ИИ, и при этом не нанести вред участникам рынка.

 

Зарегулируй это…

Для стороннего наблюдателя степень вовлечённости властей ЕС в регулирование ИИ на столь раннем этапе развития технологий может казаться спорной и преждевременной. Нам ещё бесконечно далеко до увлекательных моральных дилемм вселенных Айзека Азимова и Филипа Дика, где искусственный интеллект является полноценным участником социальных процессов. На сегодняшний день передовые достижения робототехники свелись к механизмам, которые могут ходить и бегать. Лучшие даже способны неплохо спускаться с лестниц. Не является ли стремление к регуляции рынка, который, по сути, находится в зачаточном состоянии немного преждевременным?

Некоторую нервозность ЕС можно понять. Государствам всегда отведена роль догоняющих в вопросе законодательного регулирования технологических инноваций. В отдельных случаях неспособность правительств достаточно быстро реагировать на технологические изменения в среде приводит к вполне осязаемым негативным социальным последствиям. Так, уберизация различных сфер экономики оставила многих людей без средств к существованию, а у множества законопослушных участников рынка убила уверенность в завтрашнем дне. Тектонические экономические сдвиги – последствия технологического рывка последних лет уже ведут к осязаемому росту социальной напряжённости. У искусственного интеллекта колоссальный потенциал уничтожения традиционных экономических укладов. Учитывая это, стремление экспертов и законодателей ЕС заблаговременно понять потенциальные изменения и предвосхитить их негативные аспекты – вполне логично, своевременно и оправданно.

Стоит отметить солидный послужной список Европейского Союза в вопросах регулирования цифрового пространства. Разработка единого законодательства для регулирования данных граждан ЕС началась в 2012 году. Закон окончательно вступил в силу в мае 2018 года. Именно в этом году разразился скандал вокруг действий Фейсбука и компании "Кембридж аналитика", когда данные миллионов пользователей были собраны без их ведома и использованы в политических целях. Скандал стал началом масштабного кризиса доверия между технологическими корпорациями и широкой общественностью, который мы наблюдаем сейчас. При этом именно превентивные законотворческие меры ЕС позволили неповоротливому бюрократическому аппарату быть относительно готовым к дискуссии и способным защищать интересы своих граждан в цифровом поле. Кроме того, отмена роуминга на всей территории ЕС и запрет геоблокинга (блокировка доступа к определённым товарам и услугам пользователям из других стран) значительно облегчает жизнь рядовых потребителей ЕС и повышает качество предоставляемых им услуг.

 

Зарегулируй то и это

Однако не стоит идеализировать усилия Евросоюза по регулированию ИИ. Рефреном всего Цифрового Дня служили заявления, что дополнительная регуляция и создание единых правил игры позволят ЕС сохранить лидерство в сфере искусственного интеллекта. Однако о каком лидерстве может идти речь, когда суммарные инвестиции в технологии ИИ в ЕС едва превышают четверть азиатского рынка и составляют примерно 20 % от американского. В 2018 Европейская комиссия обнародовала амбициозный план по наращиванию инвестиций в отрасль искусственного интеллекта до 20 миллиардов евро, но уже сейчас ясно, что в этой гонке вооружений Евросоюзу отведена догоняющая роль. Для сравнения, к 2030 году Китай прогнозирует внутреннюю отрасль ИИ размером в 150 миллиардов долларов США. При этом власти КНР традиционно куда менее обременены моральными дилеммами и общественным давлением, свойственными странам ЕС и США. Для Китая технологическое лидерство есть вопрос национальной безопасности, а общественное благо всегда превалирует над индивидуальным.

К чему приведёт внимание бюрократического аппарата ЕС к регулированию технологий искусственного интеллекта – вопрос сугубо дискуссионный. С одной стороны, мы имеем серьёзный опыт бюрократических инициатив, которые привели к упорядочиванию рынка и улучшили положение потребителей цифровых технологий. С другой – отстающую отрасль, которая вместо массированных инвестиций в цифровой рывок рискует задавить новую отрасль под тяжестью регуляционного механизма. Ясно одно. Ведущие технологические державы возлагают колоссальные надежды на развитие искусственного интеллекта. Хотя и избранные стратегии развития, вероятно, будут различаться самым радикальным образом – гонка началась.


тэги
читайте также