Электронная библиотека » Коллектив авторов » » онлайн чтение - страница 3


  • Текст добавлен: 22 сентября 2021, 10:20


Автор книги: Коллектив авторов


Жанр: Прочая образовательная литература, Наука и Образование


сообщить о неприемлемом содержимом

Текущая страница: 3 (всего у книги 18 страниц) [доступный отрывок для чтения: 6 страниц]

Шрифт:
- 100% +

Глава 2
Соотношение правовых и нравственно-этических принципов использования киберфизических систем, искусственного интеллекта, роботов и робототехники

Общественные отношения, существующие на данном этапе научно-технического развития, предопределили необходимость трансформации правовой составляющей социального взаимодействия естественного (человеческого) и искусственного интеллекта (далее по тексту – ИИ), в первую очередь, путем включения новых, выходящих за рамки создаваемого веками правового тезауруса, терминов, категорий, дефиниций в юридический обиход для характеристики нового экономического уклада цифрового общества. Современные возможности, и связанные с ними новые риски и угрозы для государства, общества и отдельных индивидов, формируют ситуацию, когда правовое поле, как минимум, должно подстроиться под воплощаемую реальность, и, как максимум, создать «задел» для обеспечения дальнейшего соответствия между развивающимся цифровыми технологиям, технологиями искусственного интеллекта [61] и социальными отношениями, в целом, и правовыми, в частности.

Для определения принципиальных подходов к необходимой правовой трансформации; в рамках достижения поставленных цели и задач, особое значение имеет теоретико-правовая основа определения места и роли нейронных сетей, киберфизических систем, ИИ, основанных на нем нейронных сетей, различного вида роботов и робототехники в системе права и системе законодательства национального, и наднационального уровня. Основополагающим принципом правового регулирования, на наш взгляд, должен остаться принцип гуманизма, образующий антропоцентрическую правовую оболочку, которая строится вокруг незыблемости прав и свобод человека, их высшей ценности, по отношению к другим (всем), менее значимым категориям. Такой подход, помимо прочего, обосновывался исключительностью человеческого сознания (естественного интеллекта), его превосходством над всеми иными явлениями, объективно существующими в реальном мире, ибо как утверждал софист Протагор: «человек – мерило всех вещей». При таком подходе отправной точкой должен всегда служить человек, его интересы и благополучие. Однако уже сегодня существует вероятность того, что в течение нескольких десятилетий ИИ сможет превзойти человеческий интеллектуальный потенциал, что поставит перед людьми ряд серьезных вопросов, связанных со способностью контролировать свое собственное творение, реакцией на возможность «ремонта» и улучшения людей, возможностью замены межличностных отношений (дружбы, любви, товарищества) на отношения другого рода, объединяющих творение и творца.

Такие глобальные изменения экспозиции будущего мира, просто нельзя отразить в точечных, неполных и бессистемных изменениях законодательства. Поэтому, формируя фундаментальные основы правой системы с поправкой на существование искусственного интеллекта, необходимо начинать с коррекции (или с подтверждения) философской канвы, с определения парадигмы выстраивания правовых и нравственно-этических основ взаимодействия между искусственным и естественным интеллектами. В рамках достижения поставленной цели для дальнейшего развития искусственного интеллекта, нейронных сетей, роботов и объектов робототехники и их практического применения в отраслях народного хозяйства и различных сферах цифровой экономики, необходимо планомерно реализовывать намеченные задачи, создавая обновленную нормативную правовую базу. Так, в России принят Федеральный закон от 24.04.2020 № 123‐ФЗ «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации – городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона «О персональных данных» [61] (далее по тексту Федеральный Закон № 123‐ФЗ), в котором с 01 июля 2020 г. в Москве устанавливается экспериментальный правовой режим на 5 лет по внедрению ИИ в жизнь каждого жителя «Умного города» [62], установлены цели, задачи и принципы этого экспериментального правового режима. Но в нем, к сожалению, нет статей, регулирующих правовые и этические принципы взаимодействия человека и ИИ, киберфизических систем, роботов и объектов робототехники, что, на наш взгляд, может привести к определенным социальным рискам в будущем в процессе проведения подобного эксперимента.

Правовые и этические принципы представляют собой единый комплекс, на основе которого и должно быть создано Российское законодательство в области ИИ. Прежде всего, необходимо определиться о каком именно виде ИИ идет речь в Федеральном законе № 123‐ФЗ. Ведь в современной научной литературе определены семь направлений развития искусственного интеллекта, начиная от способности систематизировать и воспроизводить различные области знания на основе анализа различной информации, используя алгоритмы обучения и самообучения до способности «разумного» общения с другими системами на основе ИИ и человеком, применяя заложенные поведенческие алгоритмы и интеллектуальное программирование [63]. Развитие в мире робототехники и появление «умных роботов», «социальных роботов», сильного ИИ (ASI) и, возможно, уже в скором будущем сверхсильного ИИ (SAI), требует от законодателя определенности в формулировании правовых и этических принципов взаимодействия людей, общества и государства, в целом, и этих видом ИИ.

В Проекте стратегии Москва «Умный город – 2030» (далее по тексту – Проект Стратегии) предполагается использование цифровых технологий и технологий искусственного интеллекта по следующим шести направлениям (рисунок 2.1).


Рисунок 2.1. Направления проекта цифровой стратегии Москвы «Умный город – 2030»

Источник: проект стратегии г. Москва «Умный город-2030» [63].


Как видно из этого рисунка, практически во всех сферах жизни человека и общества предлагается использовать ИИ, причем авторы проекта стратегии основывались в своем проекте на идеях таких зарубежных исследователей-футурологов, как Рэй Курцвейла [64], Ян Пирсона [65], Брайан Дэвид Джонсон [66] и др., прямо указывая на приверженность концепции трансгуманизма [67, 68], которая «поддерживает использование достижений науки и технологии для улучшения умственных и физических возможностей человека, с целью устранения тех аспектов человеческого существования, которые считаются нежелательными – страданий, болезней, старения и смерти». Для чего предполагается даже вживление в организм человека медицинские устройства. [62, c. 6]. Вопрос, который сразу же возникает: а какие принципы предлагают авторы данного проекта для реализации программы «Умный город – 2030» в рамках экспериментального правового режима по Федеральному Закону № 123‐ФЗ?

В Проекте Стратегии предлагаются не правовые или этические принципы взаимодействия человека и ИИ, или нейронной сети на основе ИИ, или роботом, или объектов робототехники, а принципы Умного города, к числу которых отнесены: 1) Умный город – для человека; 2) участие жителей в управлении городом; 3) ИИ для решения городских задач; 4) цифровые технологии для создания полноценной безбарьерной среды во всех сферах жизни; 5) развитие города совместно с бизнесом и научным сообществом на партнерских взаимовыгодных условиях; 6) главенство цифрового документа над его бумажным аналогом; 7) сквозные технологии во всех сферах городской жизни; 8) отечественные решения в сфере цифровых технологий; 9) зеленые цифровые технологии [62, c. 24–28]. То есть, во-первых, для авторов стратегии нет разницы между цифровыми технологиями и технологиями искусственного интеллекта, поэтому они не выделяют особенности «работы» нейронных сетей, киберфизических систем, различных видов ИИ, их алгоритмов и возможных ошибок, допущенных их разработчиками, которые могут нарушать права и свободы человека и гражданина, изменению системы взаимодействия в социуме и механизме государства. А во-вторых, полностью отсутствуют этические принципы взаимодействия с ИИ, о котором идет уже речь в Федеральном Законе № 123‐ФЗ.

В данном законе практически нет указаний на цифровые технологии, упоминается исключительно ИИ, правда не понятно о каком его виде идет речь. Снова нет речи о правовых и этических принципах взаимодействия с ИИ, но зато уже регламентируются принципы специального правового режима, к числу которых законодатель в п. 3 ч. 2 ст. 3 отнес: «1) прозрачность экспериментального правового режима; 2) защита прав и свобод человека и гражданина, обеспечение безопасности личности, общества и государства; 3) недискриминационный доступ к результатам применения искусственного интеллекта». Принципы просто перечислены без правовой расшифровки их содержания, что дает возможность широкого толкования данной нормы правоприменителем, т. е. высшим исполнительным органом г. Москвы или нейронной сетью или ботом на основе ИИ. Особую озабоченность вызывает тот факт, что в соответствие со ст. 4 сами технологии искусственного интеллекта и (или) производства, реализации, оборота отдельных товаров (работ, услуг) на основе указанных технологий, а также требования к указанным технологиям и (или) товарам (работам, услугам); все случаи и порядок использования результатов применения искусственного интеллекта; а также случаи обязательного применения и (или) учета результатов применения искусственного интеллекта в деятельности органов исполнительной власти субъекта Российской Федерации – города федерального значения Москвы и подведомственных им организаций; порядок и случаи передачи собственниками средств и систем фото– и видеонаблюдения изображений, полученных в соответствии с условиями, предусмотренными подпунктами 1 и 2 пункта 1 статьи 152.1 Гражданского кодекса Российской Федерации, а также предоставления доступа к таким средствам и системам фото– и видеонаблюдения органам государственной власти и организациям, осуществляющим публичные функции в соответствии с нормативными правовыми актами Российской Федерации; по согласованию с уполномоченным федеральным органом исполнительной власти, осуществляющим функции по выработке и реализации государственной политики и нормативно-правовому регулированию в сфере информационных технологий, порядок и условия обработки участниками экспериментального правового режима персональных данных, полученных в результате обезличивания, на основании соглашений с уполномоченным органом, а также требования к таким соглашениям определяет высший исполнительный орган государственной власти субъекта Российской Федерации – города федерального значения Москвы [61]. Причем в самом тексте Федерального закона № 123‐ФЗ нет принципов, которыми должен руководствоваться данный орган исполнительной власти, не прописана и его ответственность в случае принятия ошибочного решения ИИ, которым должна будет руководствоваться мэрия г. Москвы.

Отметим, что на текущем этапе государственно-правового развития, просто невозможно спрогнозировать все возможные последствия включения искусственного интеллекта в правовое поле практически каждой сферы общественной жизни. Нельзя также предсказать, какого уровня достигнет развитие искусственного интеллекта в будущем, по той простой причине, что на текущий момент, его совершенствование ограничено техническими возможностями по обеспечению «софтом», однако, в случае решения этой проблемы, его развитие, по мнению ученых-техников, не будет ограничено уже ничем. И в этой связи, наиболее важным аспектом в деятельности ученых-юристов, становится не формулирование конкретных правовых установлений, дающих определении ИИ, включающих его в правовые конструкции, и снабжающих узаконенными правами (поскольку все эти положения могут очень быстро устареть, в случае создания Искусственного интеллекта, способного к самопознанию, саморазвитию, и моделированию собственных представлений о своем месте в мире), а формулирование правовых и этических принципов правового регулирования, сопровождаемое надеждой, что и искусственный интеллект будет ими руководствоваться и соблюдать в той же мере, что и человечество.

Исходя из вышеизложенного, следует уделить особое внимание принципам правового регулирования исследуемой тематики. На наш взгляд, в число этих принципов (помимо общеправовых, таких как гуманизм, законность, запрет дискриминации и стигматизации), должны войти основные начала правового регулирования, способные задать правильный вектор выстраиванию взаимодействия между двумя видами интеллектов. Ведь правовое обеспечение общеправовых принципов происходит через межотраслевые и отраслевые принципы правового регулирования, к системе которых следует отнести:

1. Принцип недопустимости причинения вреда человеку, опосредованно сформулированный еще в 1943 г. Айзеком Азимовым [69], тремя законами робототехники. Интересным фактом здесь является то, что все эти законы дословно приведены со ссылкой на источник в пункте М введения к Докладу Европарламента с рекомендациями Комиссии по нормам гражданского права в области робототехники: «(1) робот не может причинить вред человеку или своим бездействием допустить причинения вреда человеку. (2) робот должен подчиняться приказам, данным ему людьми, за исключением случаев, когда такие приказы противоречат Первому Закону. (3) робот должен защищать свое существование до тех пор, пока такая защита не противоречит Первому или Второму Законам и (0) робот не может причинить вред человечеству или, бездействием, позволить человечеству прийти к вреду» [70].

По мнению фантаста, эти законы должны быть заложены изначально в программу искусственного интеллекта, как аналог нравственных ценностей, «категорического императива» для индивида. Не случайно именно эти законы стали основой для Кодекса этики для разработчиков робототехники, являющегося Приложением к Резолюции Европарламента от 16 февраля 2017 года 2015/2013(INL) P8_TA-PROV(2017)0051 [71].

Однако, в данном случае, следует учитывать то обстоятельство, что системы ИИ, уже нашли свое применение не только в гражданской, но и в военной сфере, что накладывает определенные ограничения на применимость указанного принципа. На сегодняшний момент есть примеры причинения вреда человеку[3]3
  В 2017 г. Корпорация Amazon (США) была вынуждена закрыть экспериментальный проект по найму сотрудников на основе ИИ, т. к. алгоритм занижал оценки кандидатов-женщин, поскольку был обучен на прошлом десятилетнем опыте отбора кандидатов в Amazon, среди которых преобладали мужчины [73]. В 2016 г. была прекращена работа чата-бота Тау за расизм в рекламе Facebook, т. к. бот на основе высказываний пользователей Twitter менее чем за сутки научился расистским высказываниям [74].


[Закрыть]
.

2. Принципы уважения человеческого достоинства и конфиденциальности, обусловленные тем, что частная информация о человеке может быть раскрыта через решения и прогнозы, сделанные ИИ, более того, от применения некоторых возможностей технологий на основе ИИ, может пострадать и человеческое достоинство, так как ИИ позволяет все более реалистичные фото, аудио и видео подделки, или «глубокие подделки», которые могут быть использованы для дискредитации граждан. Так, известна ошибка, допущенной ИИ в Китае, когда в числе злостных нарушителей правил дорожного движения была названа Дун Минчжу (входит в первую сотню самых влиятельных женщин Китая по версии Forbes) просто из-за того, что ее портрет был размещен в рекламных целях на автобусе[4]4
  В 2016 г. роботом на основании фото человека, имеющего ярко выраженную азиатскую внешность, было отказано в приеме документов на получении паспорта Новой Зеландии, т. к. алгоритм посчитал глаза закрытыми [75, 76].


[Закрыть]
.

Кредитные организации уже используют интеллектуальные системы для прогнозирования кредитного риска при выдаче кредитов, и, некоторые государства (например, США) запускают разнообразные характеристики заключенных через сложные алгоритмы интеллектуальных программ, чтобы предсказать вероятность рецидива при рассмотрении вопроса об условно-досрочном освобождении. В этих случаях очень важно обеспечить, чтобы такие факторы, как национальность, раса и сексуальная ориентация, не использовались для принятия решений на основе ИИ. Даже, когда такие функции не включены непосредственно алгоритмами программы, они все равно могут сильно коррелировать с кажущимися безобидными сведениями, такими как почтовый индекс, или адрес. Вместе с тем, при тщательном проектировании, тестировании и развертывании алгоритмы ИИ могут принимать менее предвзятые решения, чем типичный человек.

3. Презумпция невиновности человека при решении ИИ, киберфизической системой, нейронной системой вопросов, связанных с правомерным поведением человека (Приложение «Социальный мониторинга» в г. Москве в период пандемических мероприятий однозначно исходят из принципа виновности больного Covid-19, не взирая на то, что, например, возможен сбой в системе GPS или человек может спать и не слышать сигнала о необходимости прислать селфи, или камеры наружного наблюдения распознают лицо гражданина примерно на 52 % и в этом случае он уже считается нарушившим режим и обязан доказать свою невиновность и т. д.) [76, 77, 78].

4. Принцип раскрытия информации о разработке, производстве и, использовании роботов и искусственного интеллекта, смысл которого заключается в том, что разработчики, производители и участники хозяйственного оборота обязаны будут раскрывать информацию о количестве «умных роботов», которых они используют, об экономии средств, вносимых на социальное обеспечение за счет использования робототехники вместо человеческого персонала, об оценке суммы и доли доходов предприятия, полученных в результате использования робототехники и искусственного интеллекта. Особенно важным данный принцип представляется для защиты прав и свобод физических лиц в случае принятия решения на основе данных нейронных сетей, киберфизических систем, ИИ или использованием ими персональными данными [79]. Только таким образом можно создать атмосферу доверия к ИС, которая основана на принципах надежности, справедливости, безопасности, объясняемости и точной информации обо всех составляющих ИС, т. е. создание объяснимого или прозрачного ИИ (XAI) [80, 81].

5. Принцип автономности воли, по нашему убеждению, должен иметь отношение не только к гражданам, у которых должно быть гарантированное легальное право принимать обоснованное, непринуждаемое решение об условиях взаимодействия с ИИ, киберфизическими системами, роботами или объектами робототехники, но и у разработчиков алгоритмов и программистов подобных ИС и их владельцев [82]. При этом последние, с одной стороны, должны быть лишены предвзятости, а с другой – иметь возможность учесть в создаваемых алгоритмах и программах автономию воли при использовании методов машинного обучения (ML) различных моделей нейронных сетей – создание автоматизированного машинного оборудования (AutoML). При этом до внедрения в практику мультизадачных моделей следует законодательно зафиксировать запрет на использование отдельных моделей нейронных сетей, созданных с определенной целью, для решения иных задач (например, использовать сверточные сети для создания изображений или порождающие сети для моделирования определенных последовательностей) [83].

6. Принцип информированного согласия или презумпция несогласия, тесно связанные с предыдущим принципом и охватывает все возможные преимущества и последствия взаимодействия с искусственным интеллектом, начиная от медицины, образования и заканчивая сферой развлечений, применением геймификации при обучении и др. Граждане должны иметь возможность отказаться от использования интеллектуальных технологий, как в публичной, так и в частной сфере. Простого публичного уведомления об их использовании явно будет мало.

Особенного внимания требует внедрение и использование технологий, связанных с распознаванием эмоций, призванных определять такие аспекты, как испытываемые индивидом чувства, состояние его психического здоровья, «вовлеченность» сотрудников (студентов) в трудовой (образовательный) процесс. Такие технологии основаны на принципе профайлинга[5]5
  Профайлинг – это совокупность психологических методов и методик оценки и прогнозирования поведения человека на основе анализа наиболее информативных частных признаков, характеристик внешности, невербального и вербального поведения.


[Закрыть]
и системе кодирования лицевых движений (FACS) П. Экмана и У. Фризена [84], особую эффективность имеют сверточные нейронные сети [85], распознающие эмоции по голосу диктора. Пока точность таких систем составляет около 61 %-73 %, что, безусловно, дает возможность интерпретировать достаточно вольно их результаты, а, следовательно, свидетельствует о принципиальной необходимости легального закрепления принципа информированного согласия субъектов права.

7. Принцип справедливости – принцип, предусматривающий справедливое распределение преимуществ, связанных с использованием ИИ, робототехники и доступностью роботов. Правовое регулирование должно оцениваться с точки зрения того, способствуют ли они демократическому развитию и справедливому распределению благ ИИ или концентрируют власть и выгоды в определенных кругах. Особое внимание следует уделить трактовке понятия «благо человека», «благо социума». А поскольку будущие технологии искусственного интеллекта и их последствия невозможно предвидеть с полной ясностью, правовую политику необходимо будет постоянно пересматривать в контексте наблюдаемых социальных проблем и данных, полученных в результате полевых исследований. Полагаем, с течением времени, при внедрении систем сверхсильного ИИ, будет дополняться и перечень правовых принципов, которые лягут в основу правового регулирования сферы искусственного интеллекта, киберфизических систем, нейронных сетей, основанных на нем, а также роботов и объектов робототехники.

Вопросы правовой регламентации правовых и этических принципов взаимодействия человека, общества, государства в лице государственных органов являются необходимым условием гарантированности конституционных норм, закрепляющих человека, его права и свободы как высшую ценность Российской Федерации. ИИ, беря на себя задачи сквозного и прозрачного государственного и муниципального управления на основе Больших данных и с использованием Искусственного интеллекта, представляет особый элемент в складывающихся общественных отношениях, которые должны, по нашему убеждению, подчиняться робоэтике и этике ИИ, созданной наподобие юридической этики. Именно поэтому этика принятия решения и действий самого ИИ, этика тех программистов, которые создают алгоритмы, по которым действуют и самообучаются эти системы, этика взаимодействия человека и киберфизических и когнитивных систем представляет собой предмет правового регулирования. За 3 последних года в 50-ти странах мира приняты национальные стратегии и иные юридические документы, включающие в себя этические правила и принципы взаимодействия человека с ИИ (см. Приложение B). Такая задача по созданию свода этических правил взаимодействия человека и ИИ была поставлена Президентом РФ В.В. Путиным на конференции по искусственному интеллекту «AI Journey» (ноябрь 2019 г.) [86], предполагается что этим, в том числе должна будет заниматься подкомиссия по развитию искусственного интеллекта Правительственной комиссии по цифровому развитию [87].

Следует отметить, что этика ИИ технологий (робоэтика) от этики других областей отличает проблема этичного поведения интеллектуальной системы (далее по тексту – ИС) в ситуации, когда ее решение касается людей, ведь такая система способна: самостоятельно принимать решения, касающиеся человека, а также анализировать данные в неизмеримо больших объемах и со скоростью, на которую не способен ни один человек. Это приводит к тому, что человек просто не способен проверить верность принимаемых интеллектуальными системами решений. Соответственно, основная проблема заключается в определении того, насколько решения, принимаемые интеллектуальной (информационной) автономной системой (ИАС), соответствуют этическим нормам, признанным в обществе. Именно большой диапазон моральных установок, существующих для каждого человека, по сравнению с нравственными ценностями, вырабатываемые обществом, и представляется проблемой для создания соответствующих правил программирования роботов и ИИ. Существование и распространение сегодня автомобилей-беспилотников ставит проблему морального выбора при принятии решения особенно остро. В случае непредвиденной ситуации на дороге, каким образом должен поступить такой механизм? Ведь если человек за рулем может поддаться эмоциям, ему может стать физически плохо, то робот от таких проблем избавлен.

Следовательно, вопрос состоит в том, каким образом правильно, с точки зрения нравственных ценностей, создать программное обеспечение, в том числе и тогда, когда придется кем-либо пожертвовать. Для сбора информации о предпочтительном решении и, возможно, создании универсальной этики беспилотных автомобилей с 2016 г. запущена онлайн тест-система Moral Machine (http:// moralmachine.mit.edu/) на 10-ти языках, где каждый может пройти 13 тестов, заключающихся в модификации знаменитой «проблемы вагонетки» Ф. Фута [88]. Система сайта фиксирует возраст, место нахождения, пол, социальный статус, политические, религиозные и иные убеждения и иную информацию [89], разделяя людей условно на три зоны в зависимости от господствующей религии. Моральный выбор неоднозначен, мнение людей может меняться в зависимости от ситуации, воспитания человека, социального окружения и др. Возможно ли в таком случае, создать универсальные моральные правила для роботов, киберфизических систем, нейронных сетей, основанных на ИИ, не говоря уже о том, данная система тестирования не совершенна. Ведь, если на основе выбранных решений будет создана программа, жертвующая стариком, то если в салоне беспилотника окажется такой человек, то в случае столкновения с более молодым, робот должен принять решение о самоликвидации вместе с пассажиром.

С учетом анализа таких данных были приняты такие нормативные правовые акты, как: «Изменения в Закон о дорожном движении Германии для целей использования высокоавтоматизированных автомобилей» [90] (ФРГ, 2017); «Руководство по испытаниям автоматизированных транспортных средств» [91] (Австралия, 2017); «Пробный свод правил для испытания автономных транспортных средств на территории Китая» [92] (Китай, 2018); «Резолюция о запрете применения автономных смертельных систем вооружения» [93] (Бельгия, 2018); «Директива об автоматизированном принятии решений для федеральных учреждений» (Канада, 2019), исключение составляют Рекомендации по беспилотным автомобилям (ФРГ, 2017) [94], в которых прямо запрещено в случае неизбежной аварии «выбирать возможных жертв [из числа людей – добавлено нами А.П.] по каким-либо личным качествам (возрасту, полу, физическому и ментальному состоянию)», сохраняя при общих равных условиях жизнь человека против имущества или жизни животного, при этом «стороны, которые вовлечены в создание опасности при движении, не должны приносить в жертву невовлеченные стороны» [95].

Если мораль, в первую очередь, индивидуальна и на основании этого факта создание единого алгоритма действия для роботов и ИИ становится невозможным, то можно ли их «воспитать», привив нравственные ценности таким технологиям? Для ответа на этот вопрос необходимо вспомнить, что в условно восточных и условно западных странах отношение к самой морали и способам ее воспитания в социуме существует принципиальное отличие, которые и выразилось в отношении к новым технологическим акторам XXI в. Мораль, как необходимое качество духовного развития индивида в большинстве азиатских стран соотносится не с индивидуальной трактовкой морали как проявлением эго, влекущим за собой либо понятие вины, либо поощрения, в том числе, со стороны Высших сил, а с общественными моральными кодами, основанными на системе нравственных ценностей, т. е. ценностей традиционного общества. Так, в Японии, исходя из принципов синтоизма, роботы, киберфизические и ИИ признаются имеющими душу наравне с человеком и именуются в соответствие с ч. 1 ст. 2 Закона № 9014 от 28 марта 2008 г. (в ред. Закона № 13744 от 6 января 2016 г.) «О содействии развитию и распространению умных роботов» [96] (далее по тексту – Закон об умных роботах) «умными роботами», т. е. «механическими устройствами способными воспринимать окружающую среду, распознавать обстоятельства, в которых они функционируют, и целенаправленно передвигаться самостоятельно».

В силу данного факта умные роботы признаются акторами социума, действующими наравне с людьми и выполняющими единую с ними цель, обозначенную, как содействие улучшению качества жизни граждан и развитию экономики страны». За ними даже закрепляется отдельная территория их «проживания, развития и распространения» – Роботэнд[6]6
  Сегодня действует такая зона в городе Инчхоне.


[Закрыть]
в ст. 30 Раздела V Закона об умных роботах. При этом ИИ и роботы признаются объектами права и в «Этических руководящих принципах для Японского общества искусственного интеллекта (JSAI)» (2017) делается принципиальное различие между слабым и сильным ИИ, поэтому ответственность за роботов возлагается на программистов, создателей роботов, членов Научного общества искусственного интеллекта (JSAI) [97].

По-иному воспринимаются роботы, нейронные системы, ИИ в западной культуре, где основной ценностью, начиная с XVI в., признается гуманизм, поэтому, исходя из доктрин либерализма и гуманизма, ИИ не признается актором наравне с человеком, что и заявляется в национальных стратегиях ИИ и этических правилах. Как отмечал Н. Бостром, «рационалистическая суть ИИ несовместима с гуманностью и человечностью. Ведь основное свойство разума, проторазума, иного разума и т. д. – это, прежде всего, приспосабливать к себе окружающую среду. Поскольку у разума как такового нет нравственности, он может «пойти» на все, что считает целесообразным» [98, c. 62].

Вопрос о возможности обучения роботов и ИИ морали и этике сегодня уже не является фантастикой. Теоретически, создание подобных систем c этической компонентой представляется возможным, главным в этом случае будет проектирование механизма выбора того или иного значимого, критически важного для человека или общества действия или решения. Такая проекция человеческого поведения может быть основана на двух основаниях: соответствие ментальных установок акторов, на основе чего делаются выводы о возможном поведении индивида или создание единых моральных норм, когда робот «считывает» большое число примеров человеческого поведения, и следуют им при выборе поведенческой траектории. Попытки моделирования машинной этики (робоэтики) уже существуют.

Так, система искусственного интеллекта «Scheherazade system» способна выбирать модель поведения и принимать решения на основе данных краудсорсинговой платформы Amazon Mechanical Turk по признаку семантической схожести. Для реализации поставленной цели (получение лекарства в аптеке) самообучаемая система анализирует по хронологическому принципу все события, с какими люди могут столкнуться в реальной действительности. При этом в алгоритм искусственного интеллекта был заложен принцип характерности обычного правомерного поведения человека, поэтому интерфейс выбирал не правонарушение (кражу лекарства), хотя это и было самым рациональным решением, а обычный поступок, основанный на моральных догмах [99, c. 44]. Однако, на наш взгляд, чисто этическим такое поведение вряд ли можно назвать, все-таки морально-этические нормы не всегда могут соответствовать определенным алгоритмам, их побудительной причиной могут служить определенные чувства и ассоциации.


Страницы книги >> Предыдущая | 1 2 3 4 5 6 | Следующая
  • 0 Оценок: 0

Правообладателям!

Данное произведение размещено по согласованию с ООО "ЛитРес" (20% исходного текста). Если размещение книги нарушает чьи-либо права, то сообщите об этом.

Читателям!

Оплатили, но не знаете что делать дальше?


Популярные книги за неделю


Рекомендации