29 октября, четверг

Трахнуть алгоритм

18 сентября 2020 / 12:57
компьютерный ученый

Что вы можете сделать с алгоритмом? Вы можете изучать алгоритм. Открытие классических алгоритмов – это важнейшая часть Bildungsroman компьютерного ученого.

Алгоритмы сортировки, алгоритмы графа, алгоритмы синтаксического анализа, численные алгоритмы, матричные алгоритмы, графические алгоритмы...

Вы можете обучать алгоритм. Будь вы профессор или просто семинарист, вы объясняете другим, почему очевидное решение не всегда является правильным…

Вы можете любоваться алгоритмом. Многие действительно вызывают изумление. Внутренняя красота расстояния Левенштейна или АВЛ-дерева никого не может оставить равнодушным.

Вы можете улучшить алгоритм. По крайней мере, вы можете попробовать.

Вы можете придумать алгоритм. Маленькие или большие, амбициозные или скромные, но еще никем не придуманные. Разработка нового алгоритма — это своего рода обряд посвящения в нашу профессию. Если он окажется элегантным, одновременно и полезным и элегантным, вы получите настоящий кайф (поверьте мне).

Вы можете внедрить алгоритм. Это большая часть того, что мы делаем в разработке программного обеспечения. Я, как специалист в области объектно-ориентированного проектирования, сразу добавил бы: «и соответствующие структуры данных».

В последнее время алгоритмы стали ассоциироваться с еще одним глаголом; таким, который я определенно не мог себе представить, когда впервые узнал об алгоритмах в книге Дональда Кнута, и от самого Кнута (человека, который, безусловно, не использует нецензурную лексику).

А еще вы можете трахнуть алгоритм.

Тысячи британских студентов недавно вышли на улицы под этим лозунгом. Они протестовали против фрмулы, по которой принимали решение о приеме в университеты. Отправной точкой для этих мероприятий было решение министерства из-за Covid отбирать учащихся не по их оценкам на экзаменах («A-level»), а по их оценкам в своих школах. Власти решили сопоставить эти результаты с параметрами, полученными на основе прошлой успеваемости каждой школы. Ваша оценка больше не является только вашей: если Джилл и Джоан получили четверку, но школа Джилл в прошлом лучше способствовала поступлению учеников (скажем) в Оксфорд, то четверка Джилл стоит больше, чем четверка Джоан.

Возмущение было легко предугадать, по крайней мере, так должно было быть для более сообразительного правительства. Учащиеся хотят, чтобы их оценивали по их собственным результатам, а не по результатам других учащихся, которых они даже не знают. Аргументы о том, что единственная цель, которую преследовали авторы алгоритма, состояла в том, чтобы максимально точным образом имитировать оценку (они пытались компенсировать риск завышения оценок в некоторых школах), перестали работать, когда выяснилось, что в среднем алгоритм завысил оценки в частных школах на 4,7. Никакое теоретическое обоснование ни коим образом не могло утешить тех абитуриентов, которых приняли в университеты, о которых они мечтали на основе их необработанных оценок, а после корректировки получили отказ.

В конце концов, лозунг «Трахни алгоритм!» сработал. Правительство отозвало всю схему; оно попыталось свалить вину за фиаско на регулирующий орган (Ofqual), но это никого не обмануло.

Эти события в Великобритании в августе 2020 года знаменуют поворотный момент в отношениях между компьютерными науками и обществом. Не потому, что вдруг стало откровением то, что у технического выбора бывают последствия для людей; это давно известно, даже если мы часто делаем вид, что об этом забыли. И не потому, что мы используем информационные технологии в качестве оправдания; это также старо («Извините, компьютер этого не позволяет сделать!»), как и сами IT. Суть лозунга «Трахни алгоритм!» в том, что он выдвигает на первый план серьезные риски, связанные с желанием применять машинное обучение где попало.

Пока мы говорим о маркетинговых кампаниях («клиенты, которые купили продукт, который вы только что заказали, также купили ...») или распознавании изображений, восхищение работой алгоритма остается вполне уместным. Но теперь машинное обучение (обычно представленное как «искусственный интеллект», чтобы звучать более впечатляюще) все чаще применяется к решениям, влияющим на человеческую жизнь. В США, например, алгоритмы машинного обучения все чаще помогают судьям принимать решения или сами принимают решения за них. Идти по этой скользкой дороге дальше — безумно и неэтично. Это также опасно, о чем свидетельствует реакция британских студентов.

Машинное обучение делает то, что указывает название: оно воспроизводит и обобщает доминирующее поведение прошлого. В алгоритмах нет понятия о добре и зле; они просто учатся. Но когда они касаются социальных проблем, то возникает вероятность социальной катастрофы.

На фоне всего энтузиазма, порожденного элегантными методами, изобретенными первопроходцами машинного обучения за последние два десятилетия, с трудом можно встретить серьезные опасения по этому поводу. Кодексы этики (от Ассоциации разработчиков компьютерных технологий» и иже) мало что могут изменить.

Однако нам следует быть осторожными. Либо мы соберемся вместе и определим строгие меры контроля над использованием машинного обучения для решения вопросов, влияющих на судьбы людей, либо мы увидим массовый отказ от алгоритмических технологий - как от полезных их аспектов, так и от опасных.

Британские студенты странного лета 2020 года будут не последними, кто посоветует нам трахнуть алгоритм.

Бертран Майер - проректор Полтехнического института Шаффхаузена (Швейцария), профессор университета Иннополис, почетный профессор программной инженерии в ETH Zurich, создатель языка программирования "Эйфель".

BLOG@CACM (Скорректированный перевод отсюда)