Этический компас для ИИ: Кодекс ответственности в мире искусственного интеллекта

Роботы среди нас

Они уже говорят, как люди, двигаются, как люди, и работают, как люди. Роботы становятся умнее и больше похожи на людей. В США уже существует Общество по предотвращению жестокости по отношению к роботам (ASPCR), и нейробиологи утверждают, что у них будут социальные права, как у животных. Это не научная фантастика. Наше сосуществование с машинами уже началось, и этические дебаты тоже.

Люди очень легко приписывают объектам ментальные свойства и сопереживают им, особенно когда внешний вид этих объектов подобен внешнему виду живых существ. Опасность состоит в том, что это можно использовать в манипулятивных целях: заставлять людей приписывать роботам и системам искусственного интеллекта большее интеллектуальное или даже эмоциональное значение, чем они того заслуживают.

Один из самых известных робототехников в сфере создания человекоподобных машин — профессор Осакского университета Хироси Исигуро. В 2018 году он создал робота в виде десятилетнего мальчика Ибуки. В его мимике заложено не только проявление эмоций, но и «непроизвольные» движения, которые только добавляют андроиду реалистичности — Ибуки может моргать, двигать головой и глазами.

Робот Ибуки

Всемирную известность получила и гиноид София, разработанная гонконгской компанией Hanson Robotics. Гиноидами стали называть разновидность андроида, которая имеет подчеркнуто женскую внешность со всеми гендерными отличиями.

Актер Уилл Смит на свидании с Софией

София даже стала подданной Саудовской Аравии в 2017 году и по совместительству первым роботом, получившим гражданство какой-либо страны. Эта новость положила конец дискуссии в ASPCR о правах роботов на правосубъектность. Там посчитали, что в будущем машины и роботы должны будут платить налоги и отчислять взносы на социальное обеспечение. Таким образом, общество перейдет к экономическим отношениям с машинами, чтобы компенсировать, например, потерю рабочих мест.

Цифровое неравенство

Кажется очевидным, что искусственный интеллект и робототехника приведут к значительному повышению производительности и, следовательно, положительно повлияют на общее благосостояние. Попытка повысить производительность часто была характерной чертой экономики. Однако повышение производительности за счет автоматизации обычно означает, что для получения того же результата требуется меньше людей. Серьезные потрясения на рынке труда происходили и в прошлом, например, в 1800 году в сельском хозяйстве более 60% рабочей силы в Европе и Северной Америке, а к 2010 году в нем было занято около 5% в ЕС, и еще меньше в самых богатых странах мира.

Классическая автоматизация заменила человеческую силу, тогда как цифровая автоматизация заменяет человеческое мышление или обработку информации. А это может означать более радикальные изменения на рынке труда. Подобный этический момент РБК Тренды уже обсуждали с Максимом Федоровым в одной из статей. Это так называемое цифровое неравенство подразумевает разный доступ к технологиям на уровне отдельных лиц, компаний или государств.

Индустрия 4.0

Максим Федоров — РБК: «Перекладывание функций на ИИ — опасный тренд»

«Цифровое неравенство особенно заметно на платформе ЮНЕСКО, потому что там присутствуют представители различных государств, в том числе Северной Африки и Ближнего Востока, — подчеркивает Максим Федоров. — Их взгляды на проблему отличаются от взглядов представителей технологически развитых государств, к числу которых я отношу Россию. Они говорят: какой вообще может быть вопрос, связанный с ИИ, когда у нас во многих местах интернета нет, учебников в школах не хватает? Проблема неравного доступа к технологиям касается не только искусственного интеллекта. Подобные вопросы можно поднять и в технологиях аграрной области. Известно, что во многих странах сельскохозяйственные корпорации вытеснили локальных производителей, что привело к большому количеству экологических, социальных и других проблем».

Аннотация

В книге исследуются этические проблемы, возникающие в процессе внедрения технологий искусственного интеллекта (ИИ) в государственное управление отраслями образования, здравоохранения, жилищно-коммунального хозяйства, а также в судебную систему. В начале книги приведен общий анализ прикладных проблем, дилемм, трудностей, связанных с этикой разработки и внедрения искусственного интеллекта в избранные сферы, изложены руководящие принципы и ценности этически ориентированного искусственного интеллекта и анализ этических проблем внедрения по избранным секторам. Каждая глава книги посвящена отдельной отрасли и делится на две части: в первой дан собственно обзор этических аспектов применения и внедрения ИИ, во второй – пул рекомендаций по возможному разрешению, устранению или минимизации сформулированных этических проблем.

В формате PDF A4 сохранен издательский макет книги.

На этой странице свободной электронной библиотеки fb2.top вы можете ознакомиться
с описанием книги «Прикладные проблемы внедрения этики искусственного интеллекта в России. Отраслевой анализ и судебная система» и другой информацией о ней, а затем начать
читать книгу онлайн с помощью читалок, предлагаемых по ссылкам под постером, или
скачать книгу в формате fb2 на свой смартфон, если вам больше по вкусу сторонние
читалки. Книга написана авторами Евгений Михайлович Стырин,
Диана Эдиковна Гаспарян,
относится к жанрам Публицистика,
Обществознание, социология,
добавлена в библиотеку 02.06.2023.

С произведением «Прикладные проблемы внедрения этики искусственного интеллекта в России. Отраслевой анализ и судебная система» , занимающим объем 94 печатных страниц,
вы наверняка проведете не один увлекательный вечер. В онлайн читалках,
которые мы предлагаем посетителям библиотеки fb2.top, предусмотрен ночной режим
чтения, который отлично подойдет для тёмного времени суток и чтения перед сном.
Помимо этого, конечно же, можно читать «Прикладные проблемы внедрения этики искусственного интеллекта в России. Отраслевой анализ и судебная система» полностью в
классическом дневном режиме или же скачать книгу на свой смартфон в удобном
формате fb2. Желаем увлекательного чтения!

С этой книгой читают:

  • Дни тревог
    – Леонид Орлов, Василий Машин, Григорий Князев, Стефан Захаров, Вера Кудрявцева, Николай Новый, Лев Сорокин, Герман Подкупняк, Валерий Барабашов, Анатолий Трофимов, Борис Рябинин, Владимир Печенкин
  • Русская жизнь-цитаты 21-31.05.2023
    – Русская жизнь-цитаты
  • Рыцарь мечты
    – Владимир Вихров
  • Живая мозаика
    – Людмила Татьяничева
  • Латвийский национализм на службе Западу
    – Владимир Герасимов
  • Юристам и журналистам.
    – Юрий Мухин
  • Русская жизнь-цитаты 14-21.05.2023
    – Русская жизнь-цитаты
  • Гений Зла Муссолини
    – Борис Тененбаум
  • Патриотизм по касательной
    – Юрий Поляков
  • Сейчас Россия снова в капкане – как СССР перед своим крахом
    – Борис Гройс

Этика и искусственный интеллект

Существует довольно известный эксперимент — проблема вагонетки. Он поднимает ряд важных этических вопросов, имеющих непосредственное отношение к искусственному интеллекту. Представьте, что неуправляемая вагонетка несётся по рельсам, а на ее пути к рельсам привязаны пять человек. Вы стоите возле рычага, с помощью которого можно переключить стрелку, и вагонетка повернёт и поедет по другому пути, где к рельсам привязан один человек. Переключите ли Вы стрелку?

Однозначного ответа на данный вопрос нет. Более того, вариаций ситуации, в которой приходится принимать подобное решение, очень много []. К тому же разные социальные группы дают разные ответы. Так, например, буддистские монахи преимущественно готовы пожертвовать жизнью одного человека, чтобы спасти пятерых даже в более сложном варианте проблемы вагонетки.

Что касается искусственного интеллекта, такая ситуация может возникнуть, например, на дороге, по которой двигается беспилотный транспорт, в случае, если авария непреодолима. Возникает вопрос, чья жизнь должна быть в приоритете — пассажиров, пешеходов или ни тех, ни других? В Массачусетском технологическом университете был даже создан специальный сайт, посвящённый этой проблеме, где пользователь может попробовать на себе различные сценарии и выбрать, как стоило бы поступить в той или иной ситуации.

Возникают также вопросы, что позволено делать с правовой точки зрения? На основе чего делать выбор? И кто в итоге будет виноват? Данная проблема уже получила отклики от компаний и регуляторов. Так, представители компании «Мерседес» прямо сказали, что их машины будут отдавать приоритет пассажирам, на что в Министерстве транспорта Германии был сразу же дан ответ, предвосхищающий будущее регулирование, — что делать такой выбор на основе ряда критериев будет неправомерно и в любом случае производитель будет нести ответственность.

Другие страны могут выбрать иной путь. Возьмём, к примеру, китайскую Систему социального рейтинга, в соответствии с которой каждому гражданину присваивается рейтинг в зависимости от законопослушности, полезной общественной деятельности и др. Обладатели низких рейтингов будут подвергаться санкциям. Что помешает руководству Китая заставить производителей беспилотного транспорта предусмотреть правило, что в случае непреодолимой аварии жертвовать необходимо человеком с наименьшим рейтингом? За счёт, например, технологий распознавания лиц и доступа к соответствующим базам данных, вполне возможно определить и сравнить рейтинги потенциальных жертв.

Истоки вопроса

Первые  упоминания об искусственном интеллекте и этических вопросах уходят корнями в середину XX века, когда писатели-фантасты в своих произведениях уже пытались разработать свод этических законов для разумных роботов. Так Карел Чапек в романе «R.U.R.» задумался о гуманном обращении с роботами, а Айзек Азимов в своих произведениях «Хоровод» и «Роботы и Империя» сформулировал основные законы робототехники. В них идет речь о том, что:

  • робот не имеет права причинять вред людям или допустить своим бездействием причинение вреда человечеству;
  • он обязан повиноваться всем приказам человека, кроме тех, которые противоречат предыдущему закону;
  • робот обязан позаботиться и о своей безопасности, если это не противоречит двум предыдущим законам.

В начале 2000-х годов человечество было вынуждено снова вернуться к этой теме: роботы стали массово заменять человека на производстве, появляться в повседневной жизни людей. Так в Италии в 2004 г. был проведен Международный симпозиум по робоэтике. Позднее в 2017 г. Европарламент одобрил Европейскую хартию робототехники. 

В настоящее время из-за стремительного распространения дронов и боевых роботов дискуссии в мире по робоэтике опять обострились. Перед людьми стоит проблема разработки этических норм и регуляции поведения искусственного интеллекта, не имеющего моральных принципов и понимания о добре и зле. Другая важная сторона этики использования ИИ — тщательное отслеживание его результатов с последующим исправлением ошибок либо полным прекращением работы алгоритма. Искусственный интеллект должен приносить людям только пользу, исключая любой возможный вред.

Опасные эксперименты

Психологи и социологи уверены, что наше взаимодействие с роботами может изменить саму человеческую природу. И, возможно, совсем не в лучшую сторону. Очевидно, что внешний вид и способности различных форм искусственного интеллекта решающим образом обуславливают наше отношение к ним. Если робот способен двигаться, мы воспринимаем его, как существо, у которого есть какое-то намерение или цель, которые, вероятно, отражают его внутренний разум. Люди устроены так думать и реагировать на это. Может быть именно поэтому нам кажутся безобидными голосовые помощники, ведь они замкнуты в своих колонках и капсулах.

Но пытливому человеческому сознанию хочется пойти дальше, и многие эксперименты способны по-настоящему испугать. В начале 2022 года стало известно о программисте из Пермского края Александре Осиповиче. Мужчина создал на 3D-принтере копию Терминатора и вживил в него сознание своего умершего дедушки. Видеозапись эксперимента мужчина выложил на своем YouTube-канале. Журналистам Осипович рассказал, что технология сможет пригодиться людям, которые тяжело переживают утрату близкого человека.

Изобретатель общается с роботом, задает ему вопросы, а тот отвечает на них голосом дедушки.

Психологи по поводу такого метода переживания смерти близкого человека настроены скептически.

Оксана Козырева уверена, что интегрировать сознание умерших людей в роботов — это опасная затея прежде всего для самого пользователя. У каждого в жизни наступает момент, когда мы теряем кого-то из близких нам людей. «Конечно, хочется зацепиться за какую-то соломинку, чтобы еще раз увидеть или услышать дорогого человека, но это все обман и иллюзия. Утрату необходимо пережить естественным путем. Пусть захлебываясь в слезах и горе, пусть с депрессией. Но все это пройдет. А подобные изобретения этот процесс будут сильно замедлять. Это как искусственно поддерживать жизнь у больного, мозг которого уже умер, а сердце еще бьется. Искажать реальность очень вредно. Так можно и с ума сойти. Психика человека попросту начнет раздваивать реальность. В психологии известны тяжелые случаи, когда человек не может пережить потерю даже спустя десятилетия, что приводит к сложным проблемам со здоровьем. А создавать такого робота — значит манипулировать и использовать людей в момент, когда они разбиты горем».

Ученые настаивают: прежде чем запустить производство подобных изобретений, необходимо многое взвесить. Максим Федоров добавляет: «Здесь нужно длительное научное исследование. Сложно сразу дать моральную оценку. После потери близкого человека людям порой свойственно разговаривать с фотографиями умерших, с их вещами. Но фотографии же не отвечают. Вопрос в том, кто создал тот алгоритм, который будет отвечать пользователю. И кто впоследствии будет нести ответственность за то, что будет выдавать этот алгоритм. В качестве аналога этому изобретению из Пермского края можно привести в пример чат-боты. С ними также можно вести диалог

Это маркетинговые, так называемые «липкие» технологии, которые заставляют удерживать внимание на конкретном товаре или услуге. Это же тоже вроде как манипуляция

Поэтому при развитии технологий искусственного интеллекта возникает масса не только философско-этических, но и нормативных вопросов».

Футурология

Работа для робота: сможет ли искусственный интеллект заменить человека

Мнения известных людей

Взгляды известных личностей на проблему использования искусственного интеллекта также разделились. Часть из них видит в этом реальную угрозу будущему человечества, другие же, напротив, оптимистически оценивают открывающиеся умными технологиями возможности.

Среди первых оказался инженер и бизнесмен И. Маск

Он считает, что человечеству необходима крайняя осторожность с технологиями, так как «они потенциально более опасны, чем ядерное оружие». «С искусственным интеллектом мы призываем демона» – говорил миллиардер Маск на выступлении в Массачусетском технологическом институте

Такой же точки зрения придерживается британский ученый-физик Стивен Хокинг. По его мнению, создание мыслящих машин представляет огромную угрозу жизни на Земле и существованию человечества: «Разработка полностью искусственного интеллекта может означать конец человеческой расы». Космолог Хокинг считает, что в определенный момент умные машины смогут заменить человечество, выиграв конкуренцию. Он допускает, что в гонке за эффективностью искусственный интеллект и роботы могут захотеть избавиться от людей. 

Обе известных личности считают, что спастись люди смогут на других планетах. Среди скептиков также глава Оксфордского Института будущего человечества Ник Бостром и философ-историк Эмиль Торрес.

К другой половине можно отнести бывшего чемпиона мира по шахматам — Гарри Каспарова. Проиграв не раз компьютеру, он считает, что люди не должны сопротивляться переменам, связанным с внедрением ИИ и предоставляемым возможностям. Именно он способен определить больному диагноз более точно, чем живой врач.

Аналогичного мнения придерживается и Цзоу Цыюн (управляющий Организации по промышленному развитию ООН). Он считает, что ИИ заметно повышает эффективность производства, а при работе удаленно особенно. Технологии искусственного интеллекта увеличивают гибкость в непредвиденных ситуациях на производстве, в логистике и т. д.

***

Таким образом, примеры, приведённые в статье, показывают, среди прочего, как общественные ценности влияют на отношение к искусственному интеллекту и его юридическому оформлению. Поэтому наше отношение к автономным системам, будь то роботы или что-то другое, наше переосмысление их роли в обществе и положения среди нас, может иметь трансформационный эффект

Правосубъектность определяет то, что важно для общества, и позволяет решить, является ли «что-то» ценным и надлежащим объектом для обладания правами и обязанностями.

В связи с особенностями искусственного интеллекта звучат предложения о непосредственной ответственности определённых систем []. В соответствии с такими взглядами, не существует фундаментальных причин, почему автономные системы не должны нести ответственность за свои действия. Однако открытым остаётся вопрос о необходимости либо желательности введения такой ответственности (во всяком случае на данном этапе). Это в том числе связано с этическими проблемами, указанными в статье. Возможно, сделать программистов или пользователей автономных систем ответственными за действия таких систем будет более эффективным. Однако это же может замедлить инновации. Поэтому необходимо продолжить поиски оптимального баланса.

Для этого важно ответить на многие вопросы. Например, какие цели мы преследуем, развивая технологии искусственного интеллекта? Чьи интересы должны преобладать? Насколько эффективно это будет? Ответ на эти вопросы поможет предотвратить ситуации подобно той, которая случилась в России XVII в., когда животное (а именно, козёл) было отправлено в ссылку в Сибирь за совершённые им действия [].

Кодекс этики ИИ в России

Российская Федерация одной из первых приняла Национальный Кодекс этики в области использования ИИ. Документ был принят 26.10.2021 г. на посвященном данной тематике международном форуме и подписан ведущими компаниями России. В их числе такие отечественные гиганты, как СБЕР, Яндекс, МТС, Mail.ru Group, Ростелеком. 

Национальный Кодекс был разработан по отдельному поручению президента страны. Также в числе первых подписантов были ЦИАН, ПАО «Газпромнефть», МГИМО, университет «Иннополис», Исследовательский университет «ВШЭ», госкорпорация «Росатом» и др. Список присоединившихся компаний продолжает непрерывно расширяться.

Специалисты в России исходят из того, что ИИ довольно опасен. Поэтому меморандум регулирует такие стороны использования систем ИИ, как:

необходимость независимой оценки потенциальных рисков их применения, в т. ч

последствия для государства, общества, человека, влияние на его права и свободы;
соблюдение ключевых принципов, в том числе, ответственности, безопасности, недискриминации, предосторожности, подконтрольности, риск-ориентированности, человекоцентричности и др;
механизмы внедрения и реализации.

Подписание документа проходило с помощью электронной подписи разработанного Минцифрой сервиса «Госключ». Меморандум стал началом в России добровольного саморегулирования для достижения равновесия, доверия и согласия между человеком и искусственным интеллектом.

На посвященном вопросам этики ИИ форуме ЮНЕСКО Россия стояла на позиции, что в данной области нужен полностью научный подход. Наши представители предлагали для оценки и принятия решений в сфере ИИ использовать ПО и вычислительные мощности, способные смоделировать миллионы сценариев развития. В итоге ЮНЕСКО одобрил рекомендации, данные российскими специалистами в сфере этических вопросов использования и контроля ИИ.

Like this post? Please share to your friends: