Этические проблемы искусственного интеллекта

Этические проблемы искусственного интеллекта поднимались еще в 1950-х годах двадцатого века. С масштабным развитием нейросетей настоящего времени этот вопрос поднимается все чаще и сильнее. Эксперты, разработчики и активные пользователи все чаще задумываются об этических и моральных аспектах использования искусственного интеллекта в жизни, учебе, работе, бизнесе, политике и экологии.

Применение современных технологий ИИ оказывает все большее влияние на нашу повседневную жизнь, включая такие критические сферы, как безопасность, медицина и благосостояние. Фактически, на Земле нет ни одного человека, чья судьба сейчас бы не зависела от стремительного развития технологий искусственного интеллекта. А это значит, что эта сфера требует определенного регулирования на законодательном и общественном уровне.

Этические проблемы искусственного интеллекта

Основные этические проблемы и риски

Основные этические проблемы и риски использования искусственного интеллекта лежат в сферах приватности и безопасного использования данных, влияния ИИ на занятость и рынок труда, прозрачность и достоверность решений, которые принимают нейросети, и юридической и моральной ответственности за работу новых технологий.

Приватность и безопасное использование данных

Во время обучения и непосредственной работы, программы искусственного интеллекта обрабатывают огромное количество данных, которые могут содержать приватную и конфиденциальную информацию о людях. При неконтролируемой работе нейросетей, эта приватная информация может попасть в общий доступ и тем самым нарушить все базовые права человека на неприкосновенность личной жизни, и, что самое главное, нанести ему конкретный и не иллюзорный ущерб.

Разработчики ИИ обязаны внедрять процедуры шифрования данных и их анонимизации для предотвращения утечек. Особенно, это критично для медицинской и финансовой сфер, а также сферы общественного управления и безопасности.

Влияние на занятость и рынок труда

Уже сегодня системы искусственного интеллекта отбирают работу у большого числа работников. Пока это касается, в основном, низкоквалифицированных кадров, таких как операторы call-центров, специалистов технической поддержки, программистов начальной квалификации, бухгалтеров и аналитиков. Профессионалы в этих отраслях все еще востребованы и пользуются большим спросом, но со временем и их работа будет трансформироваться. Особенно, когда рабочие задачи по анализу больших данных и принятию стандартных решений будут перекладываться на нейросети.

Прозрачность и достоверность

Решения ИИ должны быть прозрачными и аргументированными. Особенно, это критично в таких сферах как медицина и юриспруденция. Врачи и пациенты в любой момент времени должны знать, как было принято то или иное решение, касаемое лечения. А адвокаты, прокуроры и судьи должны быть уверены, что в ответе нейросети не содержится недостоверных данных, некорректных отсылок на законы и дискриминации по тому или иному признаку. Все это напрямую влияет на жизнь, здоровье и благополучие людей и потому, вопрос прозрачности и аргументации стоит особенно остро, чтобы решениям и работе нейросетей можно было доверять.

Ответственность и контроль

Одной из ключевых этических проблем искусственного интеллекта является юридическая ответственность за решения, которые принимает ИИ. Особенно, это критично для автономных систем, работающих без непосредственного участия человека. Кто понесет юридическую ответственность за то, что беспилотный автомобиль сбил пешехода? Разработчик, владелец или водитель, который даже не притрагивался к рулю? Пока в мире не сложилось однозначной практики по подобным вопросам.

Очевидно, что должны быть какие-то внутренние или государственные органы, которые будут разбирать критические инциденты, вызванные действиями и решениями, принятыми ИИ и которые, в случае возникновения проблем будут оперативно предлагать помощь или компенсацию за нанесенный ущерб. Опять же здесь возникает вопрос того, как будет делиться юридическая ответственность между нейросетями, их разработчиками и их пользователями. Ведь любая ИИ-модель стремиться удовлетворить запрос своего пользователя, а значит, результат ее работы напрямую зависит от введенного запроса. От потребителей ИИ-услуг в любой момент времени будет требоваться определенная квалификация и практические навыки использования современных компьютерных технологий.

Этические проблемы искусственного интеллекта, которые нужно решать уже сейчас

Медицинские диагнозы

Искусственный интеллект уже сегодня помогает изучать результаты анализов и исследований и ставить диагнозы. Но как защититься от неправильной оценки данных и от неверной постановки диагноза? Очевидно, что на данный момент времени, все результаты ИИ должен перепроверять врач, с которого не снимается ответственность за лечение пациента. Но с активным внедрением передовых технологий, таких как роботизированная хирургия, неизбежно возникнет вопрос того, кто отвечает за результат операции? И кто и какие меры должен предпринять в случае возникновения тех или иных проблем в работе? Зоны распределения ответственности пока остаются большим вопросом в работе ИИ в медицине.

Автономные транспортные средства

Какое решение должен принять искусственный интеллект если аварии невозможно избежать? Чью жизнь он должен спасать в первую очередь? Пешеходов или пассажиров автономного транспортного средства? Можно ли так запрограммировать автомобиль, чтобы он мгновенно рассчитывал возможный ущерб и принимал такое решение, чтобы этот ущерб минимизировать? Сегодня мы видим, как те же автомобили Tesla выбирают разное поведение в момент потенциального ДТП. Так, в одном случае, электромобиль принял решение экстренно тормозить, в другом случае, спасая пешехода, он резко вывернул руль и перестроился на встречную полосу, врезавшись в другой автомобиль. Да, человеческих жертв в этот раз удалось избежать, но где гарантии, что так будет происходить в каждом ДТП?

Рекомендательные системы

Уже сегодня, рекомендательные системы в социальных сетях и поисковых машинах могут формировать информационные пузыри, удерживая пользователя в определенной общественной и политической повестке. Это влияет на результаты выборов, предвзятому отношению к определенным социальным группам и отношению к различным публичным проблемам. С учетом того, что нейросети обучаются на больших объемах данных, содержащих в том числе и предрассудки и предвзятое отношение к тем или иным вопросам, очевидно, что они переносят все эти социальные тенденции и в свою работу, рекомендуя пользователям определенный контент. Этим могут воспользоваться недобросовестные политики и лидеры общественного мнения, настраивая одних людей против других, подсвечивая одни проблемы и замалчивая другие. Возможно, должны существовать какие-то независимые организации, обеспечивающие этичную работу рекомендательных систем и их обучения. Современные социальные сети справляются с этим по-разному. Кто-то организует большие отделы модерации, кто-то обрабатывает жалобы пользователей в автоматическом или ручном режиме. Как показывают многочисленные скандалы в США на этот счет, единого мнения по этому вопросу еще не сформировалось.

Решение этических проблем искусственного интеллекта

Решение этических проблем искусственного интеллекта должно проводиться не только разработчиками ИИ, но и правительствами стран и международными организациями. Необходимо разработать стандарты работы, этические кодексы, механизмы контроля за работой ИИ и проводить большие кампании по повышению общественной осведомленности о возможностях и рисках работы нейросетей в разных сферах жизни.

Разработка этических кодексов

Компании-разработчики систем искусственного интеллекта должны разрабатывать и внедрять публичные этические кодексы, устанавливающие высокие стандарты безопасности, прозрачности и ответственной работы нейросетей. Важнейшие принципы должны устанавливаться людьми, экспертами по этике. Все компьютерные системы и алгоритмы должны быть ориентированы на благополучие людей и стран, а не на извлечение максимальной прибыли, учитывая то огромное влияние, которое ИИ уже сегодня оказывает на жизни, здоровье и благосостояние людей в развитых странах.

Внедрение механизмов контроля

Разработчики ИИ уже сегодня внедряют механизмы контроля за работой нейросетей. Вводятся различные тесты, контролируются тексты запросов и ответы на предмет общественной безопасности и предвзятости к уязвимым человеческим группам. Нейросети не должны давать ответы, способствующие совершению тех или иных преступлений и нарушению общечеловеческих норм. В дальнейшем эта работа должна усилиться, но тут важно не перейти к политической цензуре, которой, например, страдают популярные китайские нейросети. Должны быть установлены четкие этические критерии, по которым ИИ будет определять, как нужно отвечать на сложные и чувствительные вопросы.

Разработка международных стандартов

Мир становится все более глобальным и интегрированным, поэтому вопросы международного сотрудничества будут становится все острее и актуальнее. Искусственный интеллект обучается на больших объемах данных, которые содержат в себе определенные культурные положения и традиции. Так, нейросети, обученные преимущественно на данных США и Европы не будут чувствительны к азиатским и африканским проблемам. А значит, неизбежно будет подниматься вопросы о сотрудничестве и этике работы американских и европейских систем искусственного интеллекта на этих рынках. Это потребует международной координации между разными странами мира на самом высоком уровне.

Обучение и повышение всеобщей осведомленности

Разработчики систем искусственного интеллекта должны проходить обучение этике. Они должны четко понимать, как их работа влияет на человеческое общество и благополучие конкретных людей. Пока можно ожидать скорее внутренних корпоративных тренингов, чем национальных обучающих курсов, хотя некоторые британские и американские университеты уже принимают студентов на программы обучения этике ИИ. Возможно, специалисты, обучившиеся на таких программах, будут максимально востребованы уже в самое ближайшее время.

Выводы

Этические проблемы искусственного интеллекта нужно решать уже сейчас, в процессе его активного становления. Нельзя закрывать глаза на растущее влияние ИИ на жизни людей. Современные нейросети уже напрямую влияют на рынки труда, благосостояние граждан развитых стран, их психологическое самочувствие и самоощущение. Вклад искусственного интеллекта в экономику огромен и становится все больше и больше. Миллиарды людей стали пользователями современных компьютерных систем и алгоритмов, делая их своими ежедневными помощниками в жизни, учебе, работе и бизнесе.

Михаил Комлев/ автор статьи

Главный редактор сайта "Нейросеточка". Эксперт по нейросетям и применению искусственного интеллекта в жизни, учебе и бизнесе. Подробнее об авторе.