Современный искусственный интеллект кроме своих внушительных способностей, обладает и рядом существенных недостатков. Его повсеместное внедрение ведет к потере рабочих мест, поднятию новых этических вопросов, угрозам приватности и безопасности данных, сложностям и непредсказуемости его поведения, взращиванию зависимости человека от алгоритмов, экологическим последствиям, неравномерному распределению технологий, политическим и геополитическим конфликтам. Но искусственный интеллект давно стал частью нашей реальности, это рекомендательные системы контента в социальных сетях, подбор товаров в интернет-магазинах, чат-боты с возможностью генерации текста и изображений, анализ медицинских снимков и постановка диагнозов и многое другое. Важно трезво понимать риски использования ИИ и именно об этом мы поговорим в этой статье.
Сокращение рабочих мест
Футурологи предсказывают массовую замену людей роботами. Кто-то видит в этом огромную угрозу существующему укладу жизни в обществе, кто-то – как переход к новому более развитому и прогрессивному обществу. В любом случае, уже сейчас можно отметить, что современные производства оборудуются автоматизированными производственными линиями, способными выполнять все технические операции без участия человека. Да, взрослые инженеры и специалисты по ремонту автоматизированных линий скорее всего сохранят свою работу, а вот что делать новым выпускникам университетов и колледжей, пока непонятно. При этом, конечно, появляются новые востребованные специальности: специалисты по обучению нейросетей и аналитики данных. Но успеют ли переквалифицироваться на них ныне живущие рабочие – неизвестно.
Непростые вопросы этики и морали
Вопросы этики поднимаются с самого начала создания искусственного интеллекта. С одной стороны разработчики утверждают, что создали алгоритм, который принимает решения точнее и быстрее человека, с другой стороны, этот алгоритм разрабатывали люди и обучали его на данных, которые могут содержать предрассудки, искажения и неправдивую информацию. Ключевые проблемы:
- Искажение данных (bias). Если изначальные данные были неверны или содержали предрассудки по отношению к определенным людям, то алгоритмы научаться поступать на основе их. Например, это может привести с дискриминации сотрудников определенного пола при устройстве на работу.
- Манипуляции вниманием. Современные социальные сети и системы рекомендации стремятся захватить внимание пользователя и удерживать его как можно дольше. Таким образом, нам показывают не самый полезный для нас контент, а тот, который вызовет у нас желание потреблять его все больше и больше. Критерием становится не польза, а статистика просмотров.
- Ответственность за решения ИИ. До сих пор непонятно, кто будет нести ответственность за ошибки искусственного интеллекта. Кто виноват, если ИИ поставил неверный диагноз? Кто несет ответственность за ДТП с участием автопилотируемого автомобиля? Пока вопросов больше, чем ответов.
Прогресс сегодня движется гораздо быстрее государственного регулирования. Депутаты не успевают принять законы, защищающих пользователей искусственного интеллекта. Это общемировая проблема.
Проблемы с приватностью и безопасностью данных
Искусственный интеллект всегда опирается на данные. Чтобы делать более точные прогнозы продаж, компании начинают собирать все больше данных о покупателях. С одной стороны, хорошо, когда нам предлагают персонализированные скидки и предложения на товары и услуги, которые нам действительно нужны, с другой стороны – такое плотное изучение нашей жизни и нашей личности может серьезно настораживать и пугать.
Проблемы с утечками приватных данных остаются очень актуальными. В Интернет может попасть финансовая информация, наши медицинские диагнозы, личная переписка. Даже популярные чат-боты, куда пользователи смело загружают чувствительную и приватную информацию, могут выдавать ошибки и делать публичными личные данные людей. Преценденты уже были.
Сложность и непредсказуемость ИИ
Нейросети работают по принципу черного ящика. Мы вводим стартовые данные и ставим задачу, и получаем некие выходные данные. При этом, при использовании обычных моделей искусственного интеллекта, мы не знаем на основании каких критериев, нейросеть приняла то или иное решение. Такая непрозрачность приводит к кризису доверия между человеком и ИИ. Например, нейросеть на основании полученных данных, может выдать заключение, что пациент с вероятностью 80% болен определенной болезнью. И врач может согласиться с этим. Но уточнить у ИИ почему она приняла такое решение, узнать ее аргументацию часто просто невозможно. С одной стороны, можно считать компьютерный алгоритм умнее нас, с другой стороны – любая его ошибка может оказаться фатальной и непредсказуемой для человека.
Кибератаки и угроза безопасности
Искусственный интеллект используют не только добросовестные люди. Он также предоставил большое количество возможностей и для мошенников. Например, хакеры могут запустить модель и натренировать ее на поиск уязвимости в той или иной компьютерной системе. Она может взломать шифрование или получить другим способом несанкционированный доступ к чувствительным данным.
Дипфейки (фальсифицированные видео и аудио) могут помогать злоумышленникам выманивать деньги у добросовестных людей и работников фирм. Когда тщательно сгенерированное видео начальника с его голосом отдает распоряжение, трудно ему не подчиниться. Люди оказываются под ударом, когда не могут отличить настоящее от искусно сгенерированной подделки.
Зависимость человека от алгоритмов
Мы уже не можем представить свою жизнь без интернета и мобильных телефонов. Еще 10-15 лет назад мы спрашивали дорогу у местных жителей, теперь же мы во всю пользуемся навигаторами в смартфонах. С одной стороны, это максимально удобно, с другой – возникает тревога, что мы будем делать, если батарейка сядет, приложение выдаст ошибку, а у нас нет навыков ориентирования в городском пространстве. Если таксист не знает города, он не довезет пассажира до места назначения без навигатора.
Рекомендательные системы социальных сетей и кинотеатров, подсказывают нам фильмы для просмотра на основе наших интересов, музыку на основе наших вкусов, советуют мероприятия для нас. Мы отвыкаем искать информацию самостоятельно. Мы попадаем в информационный пузырь, соответствующий нашим вкусам, и не выходим за пределы него. Мы теряем широкий кругозор и способность воспринимать новую информацию, отличающуюся от наших текущих взглядов.
Экологические последствия
Для обучения и использования современных моделей искусственного интеллекта требуется колоссальное количество электроэнергии для работы и воды для охлаждения оборудования. Это повышает выбросы в атмосферу углекислого газа и способствуют ухудшению климатических проблем. Это привозит к повышенным требованиям к энергетическим системам государств и стимулированию перехода на зеленую энергетику.
Неравномерное распределение технологий
Большинство передовых систем искусственного интеллекта сосредоточено в США и Китае. Там же сосредоточены огромные вычислительные мощности, принадлежащие крупным корпорациям. Доступ к технологиям получают преимущественно жители развитых стран. В остальных же, цифровизация и доступ к ИИ сильно отстает, что создает неравные возможности для жителей разных стран. Это может усугубить экономическое неравенство в мире еще больше. Богатые страны будут богатеть, бедные – стремительно отставать.
Ошибки алгоритмов
Любые компьютерные алгоритмы, включая искусственный интеллект, могут ошибаться. Причем делать это они могут максимально уверенно. Медицинский алгоритм может поставить неверный диагноз, машина с автопилотом может резко затормозить, спровоцировав таким образом ДТП, система распознавания лиц может принять добропорядочного гражданина за преступника. Все это требует разработки систем защиты от ошибок, и многократной проверки безопасности ответов нейросетей.
Потеря эмпатии и человечности
Есть сферы деятельности, требующие высокой эмпатии и человечности, например, психология и искусство. Во многих проблемных ситуациях, нам нужно живое участие человека, настоящая, а не роботизированная формальная поддержка, способность сопереживать нам и нашему опыту. Да, нейросети умеют выдавать подбадривания и комплименты, но цена этому не велика. Нельзя огульно упрощать с целью экономии процессы в человеческом обществе, требующих участия человека. Только одна личность может по-настоящему понять другую личность. Нейросети же предсказывают социально-одобряемые ответы, а не ведут полноценный диалог с пользователем.
Да, искусственный интеллект уже достаточно хорошо научился создавать фотографии и генерировать музыку. Но ее все еще можно отличить от созданной людьми. Человек вкладывает живые эмоции и переживания в свои произведения, нейросеть же пользуется канонами и стандартами музыкальной грамоты и стихосложения. Получается складно, но не живо. Совершенно пластмассовая продукция.
Социальные и психологические последствия
Ребенок, привыкший получать информацию по нажатию одной кнопки, отучается совершать усилия для получения новых знаний. Вместо анализа нескольких источников, он начинает принимать на веру ответы нейросетей, не развивая в себе критичность и мышление. Люди теряют мотивацию к самостоятельной учебе и отработки навыков в реальной жизни.
Кроме того, растет зависимость от гаджетов и интернета. Все общение перемещается в виртуальный мир. Люди теряют навыки реального взаимодействия с людьми, не умеют вести разговоры и переговоры о сложном, теряют способность договариваться и уступать. В конечном счете, все это может привести к эпидемии одиночества.
Политические факторы
Гонку в технологиях искусственного интеллекта уже открыто называют новой гонкой вооружений. Кто контролирует передовые технологии искусственного интеллекта, тот контролирует экономические и общественные процессы, а значит и политические решения. ИИ используется для политической аналитики, изучения и формирования общественного мнения, пропаганды. Все политтехнологии становятся все более изощренными по отношению к жизням обычных людей. Ими все чаще манипулируют, не давая им принимать взвешенные решения, которые могут улучшить их жизнь.
Выводы
Искусственный интеллект – это не только прорывная технология, способствующая улучшению жизни многих людей, это еще и источник рисков для человечества. Об этом нужно постоянно помнить и об этом нужно постоянно говорить вслух.
Какие принципы могут защитить людей от недостатков, присущих искусственному интеллекту?
- Ответственное внедрение. Внедрять ИИ только там, где он способен принести прогресс, а не просто ради модной технологии. Также нужно работать над этическим кодексом и законами, регулирующими его использование.
- Повышение цифровой грамотности. Необходимо просвещать людей о том, как работают нейросети, чтобы с одной стороны не было страха перед ними, с другой – чтобы не было неоправданных ожиданий и слепой веры в прогресс.
- Приватность и конфиденциальность. Разработчики ИИ должны хранить данные пользователей в безопасности, чтобы они не стали добычей злоумышленников.
- Разумный подход к автоматизации. Заменяя человека роботами и алгоритмами, необходимо представлять куда он пойдет, где он может переквалифицироваться на востребованную в новом обществе информацию.
- Развитие безопасных технологий. Следует внедрять средства контроля и проверки алгоритмов, чтобы они не могли принять потенциально опасных для человека решений.
Недостатки искусственного интеллекта вытекают из человеческих пороков и людского несовершенства. Многие из нас стремятся к успеху, не считаясь с окружающими и экологией, не заботятся об общественном благосостоянии. Нейросети перенимают эти особенности. Вот почему важно регулирование искусственного интеллекта с помощью законов и общественной этики.