Электронная библиотека » Елена Ларина » » онлайн чтение - страница 5


  • Текст добавлен: 21 апреля 2022, 17:26


Автор книги: Елена Ларина


Жанр: Публицистика: прочее, Публицистика


Возрастные ограничения: +16

сообщить о неприемлемом содержимом

Текущая страница: 5 (всего у книги 22 страниц) [доступный отрывок для чтения: 6 страниц]

Шрифт:
- 100% +

Какими ценностями должен быть связан ИИ, и какой статус он должен иметь с правовой и этической точек зрения?

3) Должно быть установлено конструктивное и полезное взаимодействие между исследователями в сфере ИИ и теми, кто принимает решения о регулировании ИИ;

4) В среде исследователей и разработчиков в сфере ИИ следует поощрять развитие культуры сотрудничества, доверия и прозрачности;

5) Команды, разрабатывающие системы ИИ, должны активно сотрудничать между собой и не пытаться победить за счет игнорирования стандартов безопасности;

6) Системы ИИ должны быть безопасными и надежными на протяжении всего срока их эксплуатации, а также быть контролируемыми насколько это возможно и применимо;

7) Если система ИИ причиняет вред, всегда должна быть возможность понять причину этого;

8) Любое участие автономной системы в процессе принятия судебных решений должно сопровождаться предоставлением убедительных объяснений, которые могут быть перепроверены людьми из компетентных органов власти;

9) Разработчики продвинутых систем ИИ играют ключевую роль в формировании нравственных последствий использования ИИ, неправильного использования ИИ и действий ИИ; они имеют возможность и несут обязанность влиять на такие последствия;

10) Высоко автономные системы ИИ должны быть разработаны таким образом, чтобы их цели и поведение были схожи с человеческими ценностями на протяжении всей их работы;

11) Системы ИИ должны разрабатываться и работать таким образом, чтобы быть совместимыми с идеалами человеческого достоинства, его прав и свобод, многообразия культур;

12) Учитывая способность систем ИИ анализировать и использовать личные данные, люди должны иметь права на доступ к своим личным данным, управление ими и осуществление контроля за их использованием;

13) Применение ИИ к персональным данным не должно необоснованно ограничивать реальную или предполагаемую свободу людей;

14) Технологии ИИ должны приносить пользу и расширять возможности как можно большего числа людей;

15) Экономическое процветание, достигнутое благодаря ИИ, должно широко использоваться в интересах всего человечества;

16) Люди должны сами выбирать, как использовать системы ИИ для достижения своих целей и использовать ли их для этого вообще;

17) Власть, получаемая благодаря контролю над высокоразвитыми системами ИИ, должна уважать и улучшать, а не подрывать социальные и гражданские процессы, от которых зависит здоровье общества;

18) Следует избегать гонки вооружений в разработке смертельного автономного оружия на основе ИИ;

19) При отсутствии консенсуса об ином нам следует избегать уверенных предположений относительно верхних пределов будущих возможностей ИИ;

20) Продвинутый ИИ может повлечь за собой коренное изменение в истории жизни нашей планеты, поэтому он должен разрабатываться и управляться с соответствующим вниманием и способностями;

21) Риски, создаваемые системами ИИ, особенно катастрофические или экзистенциальные риски, должны предвидеться, а их наступление минимизироваться за счет усилий, сопоставимых с ожидаемым последствием реализации этих рисков;

22) Системы ИИ, разрабатываемые с возможностью рекурсивного самосовершенствования или самовоспроизведения с последующим быстрым увеличением их количества или качества, должны отвечать строгим критериям безопасности и контроля;

23) Суперинтеллект должен разрабатываться только для служения широко разделяемым этическим идеалам и на благо всего человечества, а не одного государства или организации.

По сути, любые решения с применением ИИ будут результатом взаимодействия человека и компьютера. Если все прошло хорошо, то вопросов нет. А если не просто случилась неприятность, а неприятность, порожденная ошибкой, то кто за это должен ответить не только в финансовом, но и в правовом плане? Ответов нет. Все это подводит нас к переходу от этической проблематики к правовым аспектам ИИ.

§ 7. ИИ, роботы и право

Повсеместное распространение новых технологий и продуктов с их использованием размывает границы между человеком и машиной, между действиями в Интернете и вне его, между физическим и виртуальным миром, между естественным и искусственным, между реальной жизнью и виртуальной реальностью. Человечество наращивает свои возможности, используя для этого машины, роботов и программное обеспечение. Сегодня уже можно создать работоспособные интерфейсы между мозгом и компьютером. Теперь речь уже идет не об «обработанном» человеке, а об «отремонтированном» человеке, а на горизонте уже маячит «дополненный» человек.

В 2012 году Европейская Комиссия запустила проект «RoboLaw» основной целью которого было исследование того, каким образом перспективные технологии в сфере биоробототехники (включая ИИ) могут коррелировать с национальными и общеевропейской правовыми системами.

Парламентская ассамблея Совета Европы (ПАСЕ) в Рекомендации 2102 (2017) «Технологическая конвергенция, искусственный интеллект и права человека» с обеспокоенностью отметила, что законодателям становится все сложнее адаптироваться к скорости эволюции науки и техники и разрабатывать необходимые правила и стандарты; она убеждена, что гарантия человеческого достоинства в XXI веке предполагает разработку новых форм правления, новых форм открытой, осознанной и состязательной публичной дискуссии, новых законодательных механизмов и, прежде всего, установление международного сотрудничества, позволяющего более эффективно решать эти новые задачи.

ПАСЕ в указанном документе отмечает, что ссылки на то, что системы с ИИ «самостоятельно» принимают решения, не могут освобождать создателей, владельцев и управляющих этих систем от ответственности за нарушения прав человека, совершаемые с применением таких систем, даже в случаях, когда действие, причинившее ущерб, не было напрямую санкционировано ответственным руководителем или оператором.

Также ПАСЕ требует обеспечить такое положение, чтобы любая машина, любой робот или любой объект ИИ оставались под контролем человека; исходя из того, что машина считается разумной лишь за счет своего программного обеспечения, следует предусмотреть возможность лишать ее способностей, которыми она обладает.

Следует признать новые права, связанные с уважением личной и семейной жизни, «возможности отказаться от того, чтобы кто-то подвергал вас профилированию, отслеживал ваше местонахождение, манипулировал вами или влиял на вас».

В ряде стран активно создаются правовые условия для развития технологий, использующих ИИ[23]23
  См.’.КарлюкМ. Этические и правовые вопросы искусственного интеллекта.//РСМД, 18.04.2018.


[Закрыть]
. Так, в Южной Корее еще с 2008 г. существует Закон «О содействии развитию и распространению умных роботов». Закон направлен на улучшение качества жизни и развитие экономики путем разработки и продвижения стратегии устойчивого развития индустрии умных роботов, а правительство каждые пять лет разрабатывает основной план обеспечения эффективного достижения данной цели.

В марте 2018 г. президент Франции Э.Макрон презентовал национальную стратегию в сфере искусственного интеллекта. Франция планирует инвестировать 1,5 млрд, евро в течение пяти лет для поддержки исследований и инноваций в данной сфере. Стратегия основана на рекомендациях, сделанных в отчете, подготовленном под руководством французского математика и депутата национального собрания Франции Седрика Вилланы. Причем сделан выбор направить стратегию на конкретные четыре сектора: здравоохранение, транспорт, окружающую среду и оборону и безопасность.

В целом даны семь ключевых предложений, одно из которых представляет особый интерес для целей статьи – сделать ИИ более открытым. Действительно, алгоритмы закрыты и в большинстве случаев являются коммерческой тайной. Однако алгоритмы могут быть предвзятыми, например, в процессе самообучения впитать стереотипы, существующие в обществе либо переданные разработчиками, и на их основе принимать решения. В США подсудимый был приговорен к продолжительному сроку заключения на основе информации, полученной от алгоритма, оценивающего возможность повторного преступления. Подсудимый безуспешно оспаривал использование алгоритма для принятия такого решения, поскольку не были предоставлены критерии оценки, являющиеся коммерческой тайной. Французская стратегия предлагает развить прозрачность алгоритмов и возможностей по их проверке, а также определить этическую ответственность работающих в сфере ИИ, создать консультативные комитеты по этике и т. д.

В ЕС первым шагом в направлении регулирования вопросов ИИ стала Резолюция Европейского Парламента 2017 г. «Нормы гражданского права о робототехнике». Еще в 2015 г. в Европейском Парламенте была создана рабочая группа по правовым вопросам, связанным с развитием робототехники и ИИ в ЕС. Резолюция не является обязательным документом, но дает ряд рекомендаций Европейской

Комиссии для возможных действий в этом направлении, причем не только касательно норм гражданского права, но и этических аспектов робототехники.

Резолюция определяет «умного робота» как робота, получающего автономию через использование сенсоров и/или взаимосвязь с окружающей средой; при этом робот имеет по меньшей мере минимальную физическую поддержку, адаптирует свое поведение и действия в соответствии с условиями среды, но у него отсутствует жизнь с биологической точки зрения. Предлагается создать систему регистрации продвинутых роботов, которая управлялась бы Агентством ЕС по робототехнике и искусственному интеллекту. Данное агентство также предоставляло бы техническую, этическую и регулятивную экспертизу по робототехнике. Что касается ответственности, предлагаются два варианта: либо объективная ответственность (не требующая вины), либо подход риск-менеджмента (ответственность лица, которое могло минимизировать риски). Ответственность должна быть пропорциональной реальному уровню указаний, которые отдаются роботу и уровню его автономности. Правила ответственности могут быть дополнены обязательным страхованием для пользователей роботов и компенсационным фондом для выплаты компенсации в случае отсутствия страхового полиса, покрывающего риск.

Для решения этических вопросов резолюция предлагает два кодекса поведения: Кодекс этики для разработчиков робототехники и Кодекс комитетов по этике научных исследований. Первый, в частности, предлагает четыре этических принципа: 1) «делай благо» (роботы должны действовать в интересах людей); 2) «не навреди» (роботы не должны причинять вред человеку); 3) автономия (взаимодействие человека с роботами должно быть добровольным); 4) справедливость (выгоды, получаемые от деятельности роботов, должны быть распределены справедливо).

Парламентская Ассамблея Совета Европы в 2017 г. приняла Рекомендацию 102 (2017) «Технологическая конвергенция, искусственный интеллект и права человека».

В ней Ассамблея предложила разработать руководства по следующим вопросам:

«1. Повышение уровня транспарентности, государственное регулирование и ответственность операторов в том, что касается:

1.1. того факта, что при любых обстоятельствах ответственность несет человек. Ссылки на то, что системы с искусственным интеллектом «самостоятельно» принимают решения, не могут освобождать создателей, владельцев и управляющих этих систем от ответственности за нарушения прав человека, совершаемые с применением таких систем, даже в случаях, когда действие, причинившее ущерб, не было напрямую санкционировано ответственным руководителем или оператором;

1.2. операций по автоматизированной обработке данных, имеющих целью сбор, обработку и использование персональных данных;

1.3. информирования общественности в отношении ценности данных, которые она генерирует, о необходимости согласия на использование этих данных, а также о сроке, в течение которого эти данные будут храниться;

1.4. информирования каждого человека об обработке полученных от него персональных данных, а также о математических и статистических методах, позволяющих осуществлять профилирование;

1.5. разработки и использования компьютерных программ, предназначенных для убеждения, а также информационно-коммуникационных технологий (ИКТ) или алгоритмов искусственного интеллекта, которые должны обеспечивать в полном объеме уважение достоинства и прав всех пользователей, особенно наиболее уязвимых категорий, таких как пожилые люди или инвалиды;

2. Общая система стандартов, которые должны соблюдаться в тех случаях, когда суд использует искусственный интеллект;

3. Необходимость обеспечения того, чтобы любая машина, любой робот или любой объект искусственного интеллекта оставались под контролем человека; исходя из того, что машина считается разумной лишь за счет своего программного обеспечения, следует предусмотреть возможность лишать ее способностей, которыми она обладает;

4. Признание новых прав, связанных с уважением личной и семейной жизни, возможности отказаться от того, чтобы кто-то подвергал вас профилированию, отслеживал ваше местонахождение, манипулировал вами или влиял на вас в качестве некоего «наставника», а также права иметь возможность, в контексте лечения и помощи, оказываемых пожилым лицам и инвалидам, общаться не с роботом, а с человеком».

Ассамблея также напомнила, что «в своей резолюции 2051 (2015) «БПЛА и целенаправленные убийства: необходимость соблюдения прав человека и норм международного права» она призвала все государства-члены и государства-наблюдатели, а также государства, парламенты которых имеют статус наблюдателя при Ассамблее, воздерживаться от использования любых автоматических (роботизированных) процедур определения лиц для целенаправленного убийства или любого причинения вреда на основе моделей коммуникационного поведения или иных данных, собранных с помощью средств массовой слежки. Это положение должно применяться не только в отношении БПЛА, но и в отношении других вооружений, оснащенных системами искусственного интеллекта, а также иного оборудования и/или программного обеспечения, которые потенциально могут причинить вред людям, имуществу, личным данным или информационным базам данных, или же нарушать право на частную жизнь, свободу выражения мнения или право на равенство и соблюдение принципа недопущения дискриминации».

В 2016 г. группа известных благотворителей учредила фонд для финансирования исследований в области права и контроля над ИИ. Среди учредителей П. Омидьяр, Фонд Гейтсов, основатель Linkedln Р. Хоффман, основатель Goggle Л. Пейдж и т. п. Сейчас в фонде находятся 30 млн. долларов, которые будут расходоваться на оплату работы юристов.

Серьезной и оправданной является инициатива международного Института инженеров электротехники и электроники (IEEE). Он представил первую версию «Стандартов по созданию роботов и искусственного интеллекта». Стандарт получил название Ethically Aligned Design. Документ был разработан при участии Google, Facebook, Amazon, IBM, и 300 членов Global Initiative.

Предполагается, что Ethically Aligned Design установит для производителей роботов и программ ИИ неписаные правила. В частности, предлагается на срок до четырех лет рекомендовать разработчикам не создавать нейронных сетей более пяти слоев. Такие сети являются, по сути, принципиально не-вскрываемым черным ящиком, и соответственно принципы принятия тех или иных решений невозможно будет записать в виде алгоритмов, переводимых на человекочитаемый язык.

В стандарте предусмотрено, что Институт рекомендует государствам, где развиваются робототехнические разработки, и компаниям, создающим программы с использованием ИИ, создать надзорные органы за процедурой разработки и применения интеллектуальных и автономных систем, а также руководствоваться при разработке национальных стандартов и технических регламентов выпущенным стандартом.

Среди юристов имеются различные точки зрения относительно юридического ограничения научно-технических и программных разработок. С одной стороны, какое-то законодательство необходимо. С другой стороны, как показывает история, еще ни разу путем применения юридических мер не удалось приостановить научно-технические разработки или распространение технологий. Даже применительно к чрезвычайно затратному и не допускающему маскировки производству ядерного оружия, не удалось выполнить соглашение о его нераспространении.

В 2016 г. впервые пять безвинных людей, из них две женщины и один ребенок, были убиты полностью автономным боевым дроном, использованным британским подразделением в Афганистане. Дрон нанес удар по деревне из-за сбоя в системе визуального распознавания цели. Это был принципиально новый дрон. В нем для повышения точности боевых ударов и распознавания целей использовался двойной контроль. Как это часто бывает, более сложная техническая система дала сбой, и случилось то, что случилось. При этом министерство обороны и министерство юстиции Великобритании списали все на несчастный случай.

В 2017 году ФБР вместе с юридической школой университета Майами провело конференцию по юридическим последствиям использования в правоохранительной деятельности автономных роботизированных систем, оснащенных ИИ. В ходе конференции большинство поддержало профессора математики Самира Чопру – научного консультанта ФБР и автора книги «Правовая теория для искусственного интеллекта», который заявил: «Главная проблема состоит в том, что ИИ является полностью рациональным агентом, принимающих любые решения на основе расчетов в прямом буквальном смысле слова. Человеческие же решения далеки от рациональности. И коль скоро человечество существует вот уже тысячи лет, значит, рациональность не во всех случаях является лучшим решением».

Соответственно Чопра предлагает установить в законодательном порядке сферы, где могут и где не могут действовать компьютерные программы без вмешательства человека. Например, в презентации Чопры на конференции содержался график, который показал, что в период с 2009 по 2015 гг. имеется обратная регрессионная зависимость, с коэффициентом, превышающим 0,9, между потерями банков в результате преступной деятельности, в том числе внутрикорпоративных преступлений, и объемом алгоритмической торговли на финансовых рынках торговыми роботизированными комплексами.

По мнению Чопры, надо перестать относиться к торговым платформам, которые являются наиболее сложными из ныне действующих ИИ, как к простому инструменту. Парадокс в том, что они уже не являются арифмометрами, но пока недостаточно независимы, чтобы считаться юридическими лицами. По мнению Чопры, они должны рассматриваться как «юридические агенты» компании, которые управляют ими также, как Google управляет своими Google-мобилями. Соответственно в законе четко должны быть прописаны случаи, когда компании, управляющие агентами, несут ответственность, а когда нет.

Рассуждая прагматически, другой консультант ФБР Р.Кало, профессор юридического факультета Стэнфордского университета, на заседании Конгресса в 2017 году высказал такое мнение: хотим мы или нет, в ближайшие годы, а не через десятилетия нам необходимо будет прописать законодательство для создателей и эксплуатантов ИИ. В отличие от нынешнего законодательства, которое размыто и гибко, новый вид законодательства должен максимально напоминать алгоритмы. Более того, с появлением блокчейна, вполне вероятно, что это законодательство исходно должно быть записано в алгоритмическом виде в код блокчейна. Соответственно его исполнение будет обеспечиваться не надзорными органами и правоохранителями, а путем обязательной имплантации юридических правил, написанных на блокчейне, внутрь программы ИИ.

При рассмотрении юридических аспектов ИИ следует обратить внимание на возможности использования ИИ в оперативно-розыскной и расследовательской деятельности. В 2016 г. ФБР совместно с прокуратурой Южного округа Нью-Йорка и юридической фирмой Sullivan & Cromwell провели круглый стол о возможностях и ограничениях использования в оперативно-розыскной деятельности экспертных систем ИИ. В результате дискуссий, в которых участвовало значительное число практикующих судей, адвокатов, а также компаний по подбору и анализу поведения присяжных, был сделан следующий вывод: в ближайшие годы следует весьма осторожно относиться к использованию в реальной оперативнорозыскной деятельности экспертных систем не как источников текущей информации, а как инструментов прогнозирования и анализа.

Если экспертные системы используются для сопоставления идентификаторов подозреваемого лица с идентификаторами, находящимися в базе правоохранительных органов или идентификаторами, оставленными на месте того или иного преступления и надежно атрибутировавши, это один вопрос. В этом случае проблем никаких не возникает.

Однако, если экспертная система будет использоваться как своего рода консультант следователя для вынесения им вердикта о возможной виновности или невиновности того или иного субъекта, и это решение будет значимым для передачи дела в суд, то судьи и адвокаты полагают, что в данном случае у полиции и ФБР могут возникнуть большие сложности. Даже в том случае, если консультация оказалась результативной, и в последующих оперативно-розыскных мероприятиях удалось добыть новые доказательства, или просто лицо, совершившее преступление, признало себя виновным, велики шансы, что процесс будет проигран прокуратурой до его начала.

Проблема в том, что в настоящее время значительная часть американцев и европейцев, особенно лица старше 40 лет, инстинктивно боятся и не доверяют роботам, а тем более ИИ. Используя это недоверие, у многих выраженное на уровне антипатии, квалифицированному адвокату не составит труда либо развалить дело, либо добиться оправдания. Присяжные будут воспринимать подобный процесс не как ныне – диспут между прокурором и адвокатом, применительно к конкретной ситуации, в которой совершено преступление, а как поединок между безжалостным ИИ и человеком.

Также консенсусно было установлено, что категорически не стоит создавать экспертных систем, базирующихся на глубоких, более четырех слоев, нейронных сетях. Подобные глубокие сети, как уже указывалось, представляют собой программный черный ящик. Применительно к подобным сетям, сложно и дорогостояще, а в отдельных случаях невозможно, получить на выходе человекочитаемые правила. На практике это означает, что правоохранители должны просто доверяться своим программно-аппаратным помощникам. Более того, в такой ситуации не вполне понятно, кто является главным, а кто – помощником. Если решения принимаются человеком на основе правил, которые они не понимает, то считать его главным нельзя. Фактически он превращается в приставку к ИИ, которая доводит решения ИИ до человеческого общества.

Данный подход возможен при принятии международного правового акта, ставящего на определенное время под запрет использование ИИ, работающего по принципу черного ящика.

В 2018 г. в Комитете Госдумы РФ по экономической политике, промышленности, инновационному развитию и предпринимательству будет рассмотрен проект Модельной конвенции по робототехнике и искусственному интеллекту. Проект разработан Исследовательским центром проблем регулирования робототехники и искусственного интеллекта.

Цель разработанного проекта конвенции – определить основные проблемы, которые могут возникнуть в обществе и правовой системе в связи с активным развитием киберфизических систем, обобщить основные правила робототехники и обозначить возможные направления решения существующих и ожидаемых проблем, указано в документе.

Авторы проекта конвенции предлагают, в частности:

• к объектам робототехники относить все категории роботов в самом широком понимании независимо от их назначения, степени опасности, мобильности или автономности, а также кибер-физические системы с ИИ в любой форме;

• исходить из того, что «создание, внедрение и использование роботов должно осуществляться при условии максимального обеспечения безопасности человека, общества и государства, а также непричинения вреда человеку, человечеству, живым существам и всей их среде обитания»;

• роботы, создаваемые в военных целях, «должны иметь изначально заложенные в них и не поддающиеся изменениям ограничения, соответствующие положениям международного гуманитарного права». Такие роботы не должны использоваться для причинения вреда мирному населению;

• установить повышенные требования к защите от несанкционированного доступа третьих лиц при эксплуатации роботов, потенциально способных причинить человеку существенный, в том числе смертельный, вред (медицинские роботы, имплантируемые устройства, высокоавтоматизированные транспортные средства, военные роботы и т. д.);

• роботы должны постоянно фиксировать информацию об условиях своего функционирования и всех совершаемых ими действиях и хранить в специальном «черном ящике»;

• физически взаимодействующие с людьми и не находящиеся под прямым управлением человека роботы должны иметь функцию моментального или аварийного отключения по требованию («красную кнопку»);

• человек не должен умалять человеческое достоинство своим обращением с роботами».

Проект конвенции, разработанный «Робоправом», – не первая попытка законодательно урегулировать рынок ИИ. В декабре 2016 г. основатель Grishin Robotics и сооснователь Mail.Ru Group Дмитрий Гришин совместно с юристом Виктором Наумовым разработали концепцию закона о робототехнике. Этот законопроект предлагает дополнить Гражданский кодекс главой о роботах-агентах, то есть тех роботах, которые могут действовать автономно.

В ходе проведения круглого стола «Проблемы этической и правовой регламентации систем искусственного интеллекта (робототехники)», организованного кафедрой интеллектуальных прав МГЮА 21 февраля 2018 г. в рамках VI Международного юридического форума (IP Форума), проведен опрос ученых ведущих российских центров правовой науки по ключевым правовым проблемам ИИ (робототехники).

Опрос на условиях анонимности проводился среди ученых, специализирующихся в сфере материального гражданского (предпринимательского) права и гражданского (арбитражного) процесса.

В опросе приняли участие 32 респондента, представляющих ведущие отечественные центры правовой науки, включая ученых Исследовательского центра частного права при Президенте РФ, Института законодательства и сравнительного правоведения при Правительстве РФ, юридического факультета Московского государственного университета, юридического факультета Казанского федерального университета, Высшей школы экономики, международно-правового факультета Московского государственного института международных отношений, Саратовской государственной юридической академии и Уральского государственного юридического университета.

Перед респондентами было поставлено три вопроса, ответы на которые распределились следующим образом (проценты округлены):

1) Какие средства современной автоматизации нуждаются в правовой регламентации?

• 53 % опрошенных (17 респондентов) – как механические, так и программные системы искусственного интеллекта;

• 31 % опрошенных (10 респондентов) – только программные (немеханические) системы искусственного интеллекта. Например, программы для ЭВМ в составе компьютеров, смартфонов, онлайн-сервисов и социальных сетей, где реализованы элементы искусственного интеллекта, включая функции автоматического распознавания лиц и голосов людей;

• 3 % опрошенных (1 респондент) – только механические системы искусственного интеллекта (беспилотные транспортные средства, бытовые роботы-пылесосы, роботы сборочных линий в машиностроении, хирургические роботы в медицине и др.);

• 12 % опрошенных (4 респондента) не выбрали ни одного из трех предложенных вариантов ответа.

2) Как Вы оцениваете идею наделения механических роботов (вещей) правосубъектностью и применение к ним в порядке аналогии правил о юридических лицах?

• 75 % опрошенных (24 респондента) – несостоятельная (абсурдная, вредная) для правопорядка идея;

• 3 % опрошенных (1 респондент) – перспективная (взвешенная, полезная) для правопорядка идея;

• 22 % опрошенных (7 респондентов) – иной вариант ответа.

Заметим, что выбравшие свой вариант ответа респонденты, по существу, также не поддержали наделение роботов правосубъектностью. Приведем некоторые из ответов (здесь и далее авторы комментариев не указываются ввиду проведения опроса на условиях анонимности):

«…идея преждевременная до появления полностью автономного, т. н. «сильного» AI. Реализованный сегодня в отдельных системах «слабый» AI не обладает автономными интеллектуальными и волевыми качествами (осознавать/руководить), позволяющими независимо от программно-аппаратных средств (алгоритма) вырабатывать и воплощать собственные решения. Правосубъектность юридических лиц всегда «возвращает» к правосубъектности лиц, наделенных автономными сознанием и волей (органы управления юридического лица состоят в итоге из самостоятельных и самосознающих субъектов, действующих даже в заданных рамках собственной волей). В случае распространения этой фикции на роботизированные системы, наделенные «слабым» AI, механизм такой «передачи» правосубъектности представляется неочевидным: через кого робот будет реализовать свою «фиктивную» правосубъектность, кто и как будет его «органом управления»?»;

«…в этом нет необходимости; в отсутствие цели объединения капиталов, характерной для юридических лиц, смыслом правосубъектности механических роботов будет исключительно ограничение ответственности лица, использующего такую вещь; какое-либо обоснование ограничения ответственности владельцев роботов отсутствует или, по крайней мере, до настоящего времени не приведено»;

«…как всякая идея заслуживает обсуждения и организованной дискуссии на примерах того, как наличие/отсутствие правосубъектности механических роботов (вещей) сказывается (-жется) в настоящее время / ближайшей перспективе на реализации текущих потребностей заинтересованных субъектов»;

«…осознанная потребность отсутствует, делать это из праздного любопытства или целей реализации доктринальных амбиций отдельных лиц – неудачный вариант. Проблематика надуманная. Вероятнее всего, инспирирована лицами, начитавшимися Айзека Азимова и сопоставимых по поднятой проблематике фантастических произведений различного рода (например, фильм «Двухсотлетний человек»);

«…интересно, но смешивать объект с субъектом нежелательно»;

«…любая юридическая фикция или презумпция, которая служит защите и реализации прав, хороша как идея до той степени, пока польза от нее конкретному человеку (или группе лиц) превышает возможный вред, издержки (времени, денег, человеческих сил) и «социальную цену». Наша страна сегодня слаба экономически и нестабильна в смысле правовых и социальных институтов, чтобы стать площадкой для слабо прогнозируемого правового эксперимента. Тем не менее, если плюсов явно больше, чем минусов, то я за правосубъектность роботов. Вопрос только, что конкретно мы будем измерять?».


Страницы книги >> Предыдущая | 1 2 3 4 5 6 | Следующая
  • 0 Оценок: 0

Правообладателям!

Данное произведение размещено по согласованию с ООО "ЛитРес" (20% исходного текста). Если размещение книги нарушает чьи-либо права, то сообщите об этом.

Читателям!

Оплатили, но не знаете что делать дальше?


Популярные книги за неделю


Рекомендации