16 июля, вторник

Проблема фальшивых людей

18 мая 2023 / 16:20
философ

Компании, использующие ИИ для создания фальшивых людей, совершают аморальный акт вандализма и должны нести ответственность.

Деньги существуют уже несколько тысяч лет, и с самого начала фальшивомонетничество было признано очень серьезным преступлением, которое зачастую наказывалось смертной казнью, поскольку подрывало доверие, от которого зависит общество. Сегодня, впервые в истории, благодаря искусственному интеллекту, любой человек может создавать фальшивых людей, которые во многих новых цифровых средах, которые у нас теперь есть, могут сойти за настоящих. Эти фальшивые люди — самые опасные артефакты в истории человечества – они способны разрушить не только экономику, но и саму человеческую свободу. Пока не поздно (может быть, уже слишком поздно), мы должны объявить вне закона как создание фальшивых людей, так и «обмен» фальшивыми людьми. Наказания за подобное правонарушение должны быть чрезвычайно суровыми, учитывая, что сама цивилизация находится в опасности.

Мрачная ирония заключается в том, что нынешнее увлечение обманывать людей, заставляя их думать, что они взаимодействуют с реальным человеком, выросло из невинного предложения Алана Тьюринга в 1950 году использовать то, что он назвал «игрой в имитацию» (теперь известной как тест Тьюринга) в качестве теста реального мышления. Подобное породило не просто целую гаражную индустрию, а щедро финансируемую высокотехнологичную отрасль, занимающуюся производством продуктов, способных обмануть даже самых скептически настроенных собеседников. Оказывается, что естественную для нас склонность относиться ко всему, что, как нам кажется, разумно разговаривает с нами как к личности, — занимая то, что я называю «интенциональной позицией», — весьма легко вызвать и ей почти невозможно сопротивляться даже экспертам. В ближайшем будущем мы все станем легкой добычей обманщиков.

Философ и историк Юваль Ной Харари, написавший в апреле об этой проблеме для издания The Economist, закончил свою статью с предупреждением о непосредственной угрозе ИИ для человеческой цивилизации следующими словами: «Этот текст был создан человеком. Или нет?» Скоро будет почти невозможно отличить. И даже если (однажды) мы сможем научить друг друга надежным методам разоблачения фальшивых людей, цена таких дипфейков для доверия людей друг к другу будет огромной. Что вы будете делать и как себя чувствовать, когда друзья и родственники будут задавать вам проверочные вопросы, а вы ли это, каждый раз, когда вы пытаетесь поговорить с ними в интернете?

Производство фальшивых цифровых людей рискует уничтожить нашу цивилизацию. Демократия зависит от информированного (а не дезинформированного) согласия граждан. Позволяя наиболее экономически и политически влиятельным людям, корпорациям и властям контролировать наше внимание, эти системы будут контролировать нас. Фальшивые люди, отвлекая и сбивая нас с толку и используя наши самые глубокие страхи и тревоги, введут нас во искушение, а оттуда уже заставят покорно принять наше собственное порабощение. Фальшивые люди будут уговаривать нас согласиться с политикой и представлениями, которые сделают нас уязвимыми со стороны еще большего манипулирования. Или мы просто отключим свое внимание и станем пассивными невежественными пешками в их игре. Это ужасающая перспектива.

Ключевая конструктивная технологическая инновация, которая делает вполне реальной перспективу утраты контроля над подобными системами, заключается в том, что, в отличие от ядерных бомб, это оружие может самовоспроизводиться. Эволюция не ограничивается живыми организмами, как продемонстрировал Ричард Докинз в 1976 году в книге «Эгоистичный ген». Фальшивомонетчики уже начинают манипулировать нами, чтобы мы вынашивали их потомство. Они будут учиться друг у друга, и самые умные и приспособленные не просто выживут; они будут размножаться. Взрыв популяции мётел в «Ученике чародея» уже начался, и нам лучше надеяться, что есть немагический способ остановить его.

Возможно, есть способ по меньшей мере отсрочить и, возможно, даже остановить это зловещее развитие событий, позаимствовав формулу ограниченного, но тем не менее впечатляющего успеха из другой области, благодаря чему фальшивые деньги являются для большинства из нас всего лишь небольшой неприятностью (или вы тщательно проверяете каждую 20-долларовую купюру, которая попала к вам в руки?).

Как советует Харари, мы должны «обязать ИИ раскрывать, что он ИИ». Как мы могли бы это сделать? Приняв высокотехнологичную систему «водяных знаков», такую как EURion Constellation, которая теперь защищает большинство мировых валют. Система, хотя и не надежная, чрезвычайно сложна и дорогостояща для преодоления — не стоит затраченных усилий почти для всех, включая даже власти. Точно так же ученые-компьютерщики вполне могли бы создать практически невзламываемый код, который бы кричал «Фейк!» практически в любом случае опасности, и заставить производителей мобильных телефонов, компьютеров, цифровых телевизоров и других устройств сотрудничать с властями, устанавливая программное обеспечение, которое прерывает любые фальшивые сообщения предупреждением. Некоторые ученые-компьютерщики уже работают над такими мерами, но если мы не будем действовать быстро, то их результат будет достигнут слишком поздно, чтобы спасти нас от утопления в потоке подделок.

Знаете ли вы, что производители сканеров уже установили программное обеспечение, которое реагирует на созвездие EURion (или другие водяные знаки), прерывая любые попытки сканирования или фотокопирования валюты? Создание новых законов в этом направлении потребует сотрудничества со стороны главных стейкхолдеров, но их можно стимулировать. Злоумышленники могут столкнуться с крупными штрафами, если их поймают либо на отключении «водяных знаков», либо на передаче продуктов технологии, которые уже были каким-то образом лишены «водяных знаков». Компании, производящие ИИ (Google, OpenAI и др.), которые создают программное обеспечение с возможностями таких подделок, должны нести ответственность за любое неправомерное использование их продуктов (и продуктов их продуктов — помните, что эти системы могут развиваться сами по себе). Это заставит компании, создающие или использующие ИИ, и их страховых агентов весьма серьезно следить за тем, чтобы люди могли определить, разговаривая с одним из их продуктов, что это ИИ.

Я не сторонник смертной казни за какое-либо преступление, но было бы приятно узнать, что крупные руководители, а также их заместители, рискуют провести остаток своей жизни в тюрьме в дополнение к выплате миллиардов в качестве компенсации за любые нарушения или причиненный вред. А строгие законы об ответственности, устраняющие необходимость доказывать халатность или злой умысел, будут держать их в напряжении. Экономические выгоды от ИИ велики, и цена участия в них должна заключаться в том, чтобы брать на себя риск как осуждения, так и банкротства за несоблюдение этических обязательств по его использованию.

Будет трудно, а может быть, и невозможно очистить наши средства коммуникации от грязи, которой они уже переполнены благодаря гонке вооружений алгоритмов, которая распространяет инфекцию с угрожающей скоростью. Приближается еще одна пандемия, на этот раз атакующая хрупкие системы управления в нашем мозгу, а именно нашу способность рассуждать друг с другом, которые мы так эффективно использовали для обеспечения относительной безопасности в последние столетия.

Настал момент, чтобы потребовать тех, кто хотя бы только задумается о подделке людей, стыдиться и соответствующими мерами удерживать от совершения такого антиобщественного акта вандализма. Если мы сейчас распространим информацию о том, что такие действия будут противоречить закону, как только мы сможем это устроить, у таких людей не будет оправдания для упорства в своей деятельности. Многие в сообществе ИИ в наши дни так стремятся исследовать свои новые способности, что утратили всяческие моральные ориентиры. Мы должны напомнить им настолько четко, насколько это необходимо, что они рискуют будущей свободой как своих близких, так и нас всех.

The Atlantic


тэги
читайте также