Введение
Часто кажется, что современный мир уже напоминает научную фантастику. Кто бы мог подумать, что однажды можно будет попросить домашний гаджет включить музыку или что в кармане окажется компьютер, который напомнит о необходимости выйти на прогулку?
Но это лишь начало. Развитие глубинного обучения и обработки естественного языка стимулирует инновации в области искусственного интеллекта. Автономные автомобили и оружие уже разрабатываются, а видеоролики с дипфейками и игры в виртуальной реальности становятся настолько реалистичными, что порой сложно отличить вымысел от реальности. Каждая из последующих глав начинается с краткого фантастического рассказа о том, каким может быть мир в 2041 году – еще через 20 лет развития искусственного интеллекта, – за которым следует анализ влияния этих технологий на общество. Вместе они помогут подготовиться к революции в сфере ИИ.
Глава 1
В 2041 году в Мумбаи семья Наяны значительно снизила страховые взносы, зарегистрировавшись в новой страховой компании под названием Ganesh Insurance. Но был нюанс: они должны были согласиться передавать компании все свои личные данные. Ganesh Insurance обязала их использовать определенный набор приложений для всего – от инвестирования до поиска выгодных предложений в супермаркетах.
В течение нескольких недель их телефоны постоянно присылали уведомления. Приложения напоминали пить воду, советовали дедушке водить машину медленнее, а отца так настойчиво отговаривали от курения, что он в конце концов бросил. Каждое принятое ими «правильное» решение снижало страховые взносы. Казалось, что это выгодная сделка для всех. Но когда Наяна влюбилась в мужчину из менее обеспеченного района, страховые взносы семьи резко выросли. Искусственный интеллект определил, что у него более низкий социально-экономический статус, и истолковал это как потенциальный риск для семьи.
ИИ действительно может помочь оптимизировать жизнь, но в то же время способен превратить личные данные в инструмент контроля. История Наяны – тревожный пример того, как искусственный интеллект может воспроизводить существующую в обществе дискриминацию. Одним из важнейших достижений ИИ за последнее десятилетие стало глубинное обучение. Оно позволяет компьютерам прогнозировать, классифицировать данные и выявлять закономерности. Глубинное обучение используется, например, некоторым соцсетям для персонализированных рекомендаций и увеличения времени, которое пользователи проводят в сети. Анализируя каждый клик и сопоставляя данные с миллионами других пользователей, алгоритмы предсказывают, что именно может заинтересовать человека.
Глубинное обучение обладает огромным потенциалом. ИИ может обрабатывать миллионы данных и находить связи, которые недоступны человеческому восприятию. Однако у него нет интуиции, опыта и здравого смысла. Он не понимает контекста так, как это делает человек. Искусственный интеллект уязвим к предвзятости и дискриминации. В истории Наяны алгоритм не знал, что ее возлюбленный принадлежит к другой касте, а этот брак может считаться социально неприемлемым. Но, проанализировав данные о его семье и районе проживания, он интерпретировал ситуацию как потенциальную угрозу благополучию семьи Наяны.
В ближайшие годы глубинное обучение будет развиваться еще стремительнее. Вопрос о том, как сделать ИИ полезным для общества, станет одной из ключевых задач ближайшего будущего.
Глава 2
Амака был напуган. Сомнительная компания под названием Layella предложила ему, как опытному программисту, создать для них поддельное видео. Ему нужно было смонтировать ролик, в котором известный нигерийский политик признается в скандальном поступке. Если бы Амака отказался, компания пригрозила опубликовать фальшивое видео, на котором он целуется с другим мужчиной в ночном клубе.
Это грозило не только общественным осуждением, но и тюремным заключением. К 2041 году подделки станут настолько правдоподобными, что отличить их от реальности будет практически невозможно. В 2018 году в сети стало вирусным видео, где бывший президент США Барак Обама называл Дональда Трампа «полным идиотом». Однако это видео было фальшивкой.
Это был дипфейк, созданный BuzzFeed, чтобы продемонстрировать возможности технологий ИИ и предостеречь общество от безоговорочного доверия к цифровым медиа. Чтобы разработать технологию создания дипфейков, программисты сначала научили компьютеры анализировать изображения и придавать им смысл. Они вдохновлялись принципами работы человеческого мозга: зрительная кора собирает визуальную информацию, а затем неокортекс интерпретирует ее, создавая сложные образы. По аналогии разработчики создали сверточную нейронную сеть (CNN).