Автор книги: Коллектив авторов
Жанр: Прочая образовательная литература, Наука и Образование
сообщить о неприемлемом содержимом
Текущая страница: 5 (всего у книги 18 страниц) [доступный отрывок для чтения: 6 страниц]
• система, обладающая аналогичными человеку когнитивными способностями и действующая в силу этого факта как человек;
• система (устройство), обладающая (ее) хотя бы одним из свойств человеческого разума;
• результат человеческой деятельности, определяемый как сложная совокупность коммуникационных и технологических взаимосвязей, обладающая способностью логически мыслить, управлять своими действиями и корректировать свои решения в случае изменения внешних условий [145, С. 41]
• сверхразум, превосходящий по своим характеристикам интеллектуальные способности человека;
• научное направление, изучающего возможность использования систем (устройств) для моделирования человеческого мышления (машинное обучение)» [146, С. 41].
Как мы видим, несмотря на то, что современное развитие технологий на основе ИИ и соответствующей новой отрасли научного знания насчитывает уже почти 70 лет, до сих пор нет единства в определении, что же такое ИИ. Задача скорейшего правового регулирования ИИ ставится во главу угла, начиная с 2010-х гг. и, особенно приобрела актуальность в период 2015–2017 гг., когда практически во всех технологически развитых странах мира можно было наблюдать развитие технологий ИИ, свидетельствующее о наступлении шестого технологического уклада в развитии человеческой цивилизации. Период 2017–2019 гг. стал периодом принятия целого ряда юридических документов, определяющих не только сферы применения различных видов роботов, роботизированных и киберфизических систем, основанных на искусственном интеллекте, самого ИИ, но и необходимость их правового регулирования.
Первой в этом ряду следует назвать Китайскую народную республику (далее по тексту – Китай, КНР), которая еще в 2017 г. Приняла «План развития систем искусственного интеллекта в Китае до 2030 г.» [147], определивший следующие временные ориентиры:
– к 2020 г. уничтожить разрыв с ведущими странами мира в развитии технологий искусственного интеллекта, сформировав собственную индустрию технологий на основе ИИ;
– к 2025 г. стать основным центром в мире в данной области, создав не только прорывные технологии, но и целостную систему законодательства в сфере правового регулирования искусственного интеллекта;
– к 2030 г. занять лидирующие позиции в данной сфере, как в области теории, так и практике применения искусственного интеллекта в любых сферах жизни современной цивилизации [148, c. 45].
При этом следует отметить, что, несмотря на то, что впервые термин «искусственный интеллект» упоминается в 13-м пятилетнем плане экономического и социального развития Китая 2016–2020 гг., его точное содержание так пока и не определено легально [149].
Второй страной, принявшей стратегические документы в сфере применения искусственного интеллекта, стали Соединенные штаты Америки (США). Так, в докладе «Искусственный интеллект и национальная безопасность» (2018) Объединенного центра искусственного интеллекта (JAIC), отмечается, что с одной стороны, ИИ предоставляет новые возможности для человечества в сфере социально-экономической жизни, но, с другой стороны, влечет за собой большие риски, в том числе в военной, экономической, правовой и морально-этической областях [150]. В том же году США совместно с Соединенным королевством Великобритания и Северной Ирландии (Великобритания) начинают программу исследований плюсов и минусов использования ИИ, прежде всего, в военной сфере [151, c. 185–186]. Однако и в этих документах легального определения AI нет.
Европейский Союз (далее по тексту – ЕС) предлагает определять промышленных роботов как электронных личностей, труд которых используется работодателями в различных областях жизнедеятельности человеческого общества и способных помогать человеку в его пути к обществу всеобщего благоденствия. Поэтому их следует определять как участников трудовых и налоговых правоотношений, и ЕС ставит вопрос об их налогообложении наряду с физическими и юридическими лицами. При этом авторы Резолюции CivilLawRulesonRobotics (2015/2103(INL)) (Нормы гражданского права о робототехнике и Хартия робототехники (2017.06)) (далее по тексту – Резолюция ЕС) уделяют особое внимание необходимости создания правовых норм, определяющих ответственность третьих лиц (производителей, операторов и др.) за действие или бездействие роботов (пп. А и В), объясняя это все большей автономностью их деятельности.
В п. 1 «Общих положений, касающихся развития робототехники и искусственного интеллекта для гражданских нужд» отмечается, что необходимо, прежде чем определять, являются ли различные объекты робототехники и искусственного интеллекта субъектами права, определить существенные черты таких явлений как: «киберфизические системы», «автономные системы», «умные автономные роботы» и их составляющих [152, 153].
Однако, в дальнейшем, под воздействием просвещенного мнения европейских ученых, высказавшихся против придания ИИ статуса электронной личности, концепция была пересмотрена в пользу сохранения за искусственными интеллектуальными системами статуса «юридической вещи», т. е. объекта, а не субъекта правоотношений.
В Российской Федерации определение ИИ дано в «Стратегии развития искусственного интеллекта до 2030 года», утвержденной Указом Президента РФ от 10.10.2019 N 490 [9] (далее по тексту – Стратегия), который определяется как «комплекс технологических решений», способных имитировать определенный ряд свойств человека и, прежде всего, такого свойства естественного разума, как способность к самообучению. Такая способность является основополагающей и актуализирует вопросы определения места искусственного интеллекта в системе как уже сложившихся общественных отношений, так и складывающихся в недалеком будущем в целях обеспечения благосостояния всех людей, национальной безопасности и экономического развития в современных условиях государственно-правового развития.
Отметим также, что 24 апреля 2020 года, Государственной Думой РФ, был принят Федеральный закон от 24.04.2020 № 123‐ФЗ «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации – городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона «О персональных данных»» [61], который вступил в законную силу с 1 июля текущего года. Указанный акт, уже на законодательном уровне закрепил легальное определение ИИ в Российской Федерации, фактически дословно повторив определение, данное ранее в Стратегии.
Исходя из указанной трактовки ИИ, можно сделать вывод, что на современном этапе технологического развития следует однозначно говорить о реальном существовании слабого ИИ узкого назначения (Narrow AI) и сильного ИИ общего назначения (General AI), в то время как сверхсильный интеллект (SuperAI) пока даже не обозначен, хотя его развитие в будущем не просто предполагается, а научно прогнозируется. Это важно для определения его правосубъектности, ведь Narrow AI (NAI) работает в полной зависимости от созданного человеком алгоритма, в результате которого такой ИИ способен получать информацию только из того набора данных, который прямо указан в алгоритме, т. е. «помогать» людям в решении конкретной задачи. Т. е., такой вид ИИ напрямую соотноситься с определением его как системы специальных средств и приемов, используя которые компьютер, на основе уже накопленной информации, может отвечать на заданные ему вопросы, делая на базе этого экспертные выводы [154, c. 130]. Не обладая подобием естественного разума, работая в заранее заданном диапазоне, слабый ИИ, безусловно, не может даже в самых смелых мечтах приблизиться к естественному интеллекту, поэтому, исходя из его внутренних свойств, не может считаться субъектом в отношениях[8]8
Siri (компании Apple), Cortana (Microsoft), GoogleNow (Google), Echo (Amazon), «Алиса» (Яндекс) и др. инструменты обработки естественного языка – это яркие примеры слабого ИИ, не обладающие сознанием, но способные на основе специального алгоритма находить ответы на заданные вопросы, обрабатывая человеческую речь и внося вопрос в поисковую систему необходимым способом. IBM Watson помогает быстрее в разы обрабатывать необходимую информацию для медицинского персонала и врачей.
[Закрыть].
В отличие от слабого ИИ (Narrow AI), General AI (GAI) обладает развитым интеллектом, сравнимым с человеческим по определенным характеристикам. Сам термин ввел в научный обиход Джон Сёрл [155], по мнению которого, основной задачей сильного интеллекта должна стать его способность «обходить» тест Тьюринга[9]9
Этот тест был создан Аланом М. Тюрингом, в соответствие с которым критерием существования сильного ИИ, является невозможность для экспертного сообщества различить поведение компьютера и человеческие действия, совершаемые с помощью мыслительных способностей [157] URL: https:// psychosearch.ru/teoriya/psikhika/338-searle-john-razum-mozga-kompyuternaya-programma (дата обращения 29.03.2020).
[Закрыть] на основе алгоритма «китайской комнаты»[10]10
По мнению Д. Сёрла, при использовании только четырех предпосылок: мозг порождает сознание; синтаксиса недостаточно для существования семантики; компьютерная программа полностью определяется своей синтаксической структурой; человеческий разум оперирует смысловым содержанием, можно сделать следующие четыре заключения: программы не являются сущностью разума и их наличия недостаточно для наличия разума; тот способ, посредством которого человеческий мозг на самом деле порождает ментальные явления, не может сводиться лишь к выполнению компьютерной программы; то, что порождает разум, должно обладать, по крайней мере, причинно-следственными свойствами, эквивалентными соответствующим свойствам мозга.
[Закрыть]. Обрабатывая данные со скоростью, превышающей человеческую мысль в десятки, если не в сотни раз, сильный интеллект на основе созданной программы «с правильными входами и выходами»[11]11
В 2017 г. была реализована технология распределенного глубинного обучения (DDL), позволяющая на порядок сократить время обучения искусственной нейронной сети IBM.
[Закрыть] станет аналогом естественного разума (в том смысле, в котором мы сегодня определяем человеческое сознание) а, следовательно, уже не будет исключительно объектом в сложившихся отношениях при взаимодействии ИИ между собой и человеком [155]. Если до 2015 г. создание сильного интеллекта представлялось уделом далекого будущего, то с появлением «взрывного роста» технологий[12]12
Взрывной рост заключается в том, что: 1) появилось скоростное обучение нейросетей, превыщающее в разы предыдущие аналоги, на основе принципиально новых видеокарт; 2) существование датасет, как огромных баз данных для обучения нейронных сетей; 3) создание абсолютно новых методов обучения и новейших типов нейросетей, как, например, генеративно-состязательная сеть; 4) появление готовых, предобученных нейросетей, на основании которых возможно создавать уже их приложения [158].
[Закрыть] – это уже реальность. Сегодня создаются программы по изучению человеческого мозга для создания аппаратного и программного обеспечения, например, Human Brain Project (HBP) (Швейцария) или Американский проект Brain Activity Map Project («Карта активности мозга», 2013 г.), которые должны быть завершены к 2023 г.; программа Blue Brain по изучению ассамблей нейронов, проект «Банк кодов Земли» Amazon Third Way и т. д. [158] SuperAI (SAI), по определению Ника Бострома, превзойдет естественный интеллект по когнитивным способностям в несколько раз во всех возможных сферах социальной жизни [141]. Именно такая перспектива вызывает озабоченность у большинства[13]13
Илон Маск, утверждая, что ИИ на сегодняшний день представляет собой один из самых больших рисков для цивилизации, полагает необходимым, как можно быстрее создать нормативную правовую базу для регулирования отношений с ИИ. Такой же позиции придерживается и Билл Гейтс.
[Закрыть], ведь такой ИИ неподконтролен человеку, моральных или правовых ограничений у него пока нет, и вероятно никогда не появится, а, следовательно, сверхсильный интеллект будет действовать не только помимо человека, быстрее его принимать решения, но и сможет доминировать над ним [159].
Все это возвращает нас к возможности теоретического обсуждения придания искусственному интеллекту в ранге General AI и Super AI статуса субъекта или «квази» субъекта права. Итак, как уже было отмечено ранее, в основе правосубъектности лежит правоспособность субъекта права, представляющая собой потенциальную возможность субъекта обладать определенным агломератом прав и свобод. И, с точки зрения теории законотворчества, нет никаких проблем с установлением правоспособности для высокоразвитых ИИС, поскольку юридическая фиксация любых установлений на уровне закона, находится в руках законодателей. Сложность не в том, что этого нельзя сделать, а в том, чтобы решить, какие конкретно права закрепить за ИИС, и в том, чтобы спрогнозировать, как это будет работать, и к чему может привести. То есть, с юридической точки зрения главный вопрос заключается в том, необходимо ли наделять интеллектуальных агентов правосубъектностью по доктринальным или практическим соображениям.
Есть много подходов к классификации прав и свобод. Соответственно в каждой классификации можно выделить целый ряд правомочий, относящихся к той или иной категории, но все они, ориентированы либо на естественную, физиологическую, психологическую и социальную природу человека, либо на природу человеческих общностей, и, по этой причине мало подходят для искусственного интеллекта как технологического решения. Более приемлемым выходом в этом плане, может стать сравнение правоспособности ИИС не с физическими, а с юридическими лицами, или даже, с публичными образованиями. С последними, на первый взгляд у них мало общего, но, здесь наиболее важным можно счесть подход, определяющий зависимый характер правоспособности публичных образований от воли народа, наделяющего государственные органы только теми правами, которые необходимы для решения поставленных задач и выполнения предусмотренных для них функций. При таком подходе, правоспособность имеет ограниченный характер, и включает в себя не классические права, а скорее правообязанности, сконструированные по типу: «могут и должны». В данном случае, применительно и к ИИС, такая конструкция вполне оправдана, так как с одной стороны, способна наиболее точно отразить потенциальный агломерат прав для автономных от человеческой воли интеллектуальных систем, а с другой предполагает определенные ограничения для будущих субъектов права, впоследствии, вполне вероятно, могущих получить конкурентные преимущества перед физическими лицами, и при этом, избежать присущих им недостатков.
Поэтому, полагаем, необходимо определить их способность быть правообладателями для каждого права в отдельности. То есть в случае с ИИС речь может идти только о частичной правоспособности. Поскольку, в ином случае, многие ученые прогнозируют возможность возникновения так называемой «ловушки гуманизации». Райан Кало [160], например, утверждает, что разумные агенты могут использовать свой правовой статус, чтобы претендовать на право размножения или желать демократического представительства. Следуя за психологом Питером Каном и его коллегами в их предложении новой онтологической категории, он предлагает создать «новую категорию субъекта права, находящуюся на полпути между человеком и объектом». Джек Балкин поддерживает этот подход, потому что он соответствует неустойчивому и неполному восприятию людьми интеллектуальных агентов: «люди могут относиться к роботу как к человеку (или животному) для одних целей и как к объекту для других» [161].
Присвоив ИИС такой «промежуточный статус», закон мог бы не только отразить эту точку зрения, но и открыть путь к контекстуальным и, прежде всего, оппортунистическим решениям.
Вообще, исторически сложилось так, что человек может либо обладать полной правоспособностью, либо не обладать никакой вообще. Например, для людей правоспособность начинается с момента рождения и заканчивается со смертью, в то время как до и после этих событий люди вообще не могли осуществлять свои права или нести обязанности. То же самое можно сказать и о корпорациях. При регистрации они признавались юридическими лицами, обладающими полной дееспособностью, тогда как до регистрации или после ликвидации они юридически не существовали.
Проще говоря, это была система всего или ничего – либо у человека был потенциал иметь все права и обязанности, которые предлагала правовая система, либо к нему относились как к вещи. Такая структура имеет огромное преимущество. Это простой двоичный код, да или нет, черный или белый. Однако реальность имеет свои оттенки серого, поскольку возникают вопросы о том, как закон должен поступать с субъектами в процессе формирования. Например, как должна защищаться еще не рождённая жизнь или как справляться с незарегистрированными, но уже действующими компаниями, если ни одна из них не имеет никаких прав или обязательств? Для Евгения Эрлиха ответом было расширение понимания правоспособности. В 1909 году вышла его книга «Die Rechtsfähigkeit», в которой он утверждал, что вся идея двухуровневой системы правоспособности была ошибочной. Указывая на такие примеры, как концепция рабства в Древнем Риме или обращение с несовершеннолетними в современных системах гражданского права, он пришел к выводу, что во все времена правоспособность была множественной – двоичный код был теоретической иллюзией, в действительности существовало много видов правоспособности и, следовательно, много правовых статусов [162]. В 1930-х годах Ханс-Юлиус Вольф трансформировал теорию Эрлиха в концепцию Teilrechtsfähigkeit (частичная правоспособность) [163]. Он определил ее как статус, применимый к человеку или ассоциации людей, имеющих правоспособность только в соответствии с конкретными правовыми нормами, но в противном случае не несущих обязанностей и не имеющих права. По мнению Вольфа, юридическое лицо может иметь правоспособность в отношении некоторой области права, и одновременно быть исключенной из других.
Концептуально понятие Teilrechtsfähigkeit, как оно понимается сегодня, представляет собой еще один способ понимания правовой субъективности. Проще говоря, это школа Баухаус[14]14
Высшая школа строительства и художественного конструирования (Staatliches Bauhaus) родоначальник стиля, теоретические посылки которого часто сводятся к лозунгу «функционализм».
[Закрыть] в области права – форма следует за функцией [164]. Teilrechtsfähigkeit – это не столько вопрос морали. Он означает, что закон сам по себе может формировать своих действующих лиц в соответствии с собственными конкретными условиями и положениями. Другими словами, создание адресуемого субъекта – это всего лишь еще один доктринальный способ решения проблем, но всегда ограниченный по своему охвату. Поэтому, при выборе концепта о законодательном присвоении ИИС частичной правоспособности, остается только один вопрос, какие конкретно права или «правообязанности» будут предоставлены General AI и Super AI, и только это следует обсуждать.
Как уже указывалось, частичная правоспособность следует за функцией. Поэтому главным вопросом становится, какую функцию выполняют интеллектуальные агенты. Рассматривая области применения, справедливо будет сказать, что интеллектуальные агенты – это высокоорганизованные исполнители, то есть, они берут на себя действия, которые люди либо не желают выполнять, либо не способны. По крайней мере, пока они не действуют в своих интересах. Их работа заключается в оказании поддержки как физическим, так и юридическим лицам. Автономный автомобиль не ездит ради вождения, он едет, чтобы транспортировать своего пассажира к определенному месту назначения. Торговый алгоритм торгует не на свой счет, а на счет лица, которое его применяет. Другими словами, мы видим классическую ситуацию «господствующий – служащий», в которой служащий действует автономно, но в то же время от имени своего господина. Таким образом, разумные агенты должны рассматриваться как субъекты права в той мере, в какой этот статус отражает их функции, но не более того.
Для иллюстрации предлагаемого подхода, приведем несколько примеров. Так, одной из перспективных сфер внедрения ИИС, бесспорно может считаться производство и эксплуатации беспилотных транспортных средств (высоко– или полностью автоматизированных транспортных средств, функционирующих без вмешательства человека) (далее БТС) в совокупности с Интеллектуальной дорожно-транспортной инфраструктурой (далее ИДТИ), которая, в соответствии с положениями Распоряжения Правительства РФ от 25.03.2020 № 724-р «Об утверждении Концепции обеспечения безопасности дорожного движения с участием беспилотных транспортных средств на автомобильных дорогах общего пользования» [165], способна принять на себя часть задач по обеспечению безопасности дорожного движения с участием «беспилотников».
Очевидно, что реализация указанной Концепции потребует внесения существенных изменений в законодательство, в том числе, и путем предоставления интеллектуальным агентам (как в самом беспилотнике, так и в ИДТИ) определенных правообязанностей определенных их функциональным назначением. Интеллектуальная часть БТС, к примеру, должна быть наделена правообязанностями следовать оптимальным маршрутом, осуществлять перевозки грузов (или пассажиров), принимать обоснованные анализом внешней ситуации решения по обеспечению их безопасности, взиманию платы с пользователей (в случае оснащения БТС платежным терминалом), и др. ИДТИ, в совою очередь должна иметь правообязаности направленные на: повышение безопасности дорожного движения и номинальной пропускной способности дорог; оптимизацию транспортных процессов и формирование заданного поведения участников дорожного движения и культуры вождения; поддержание заданного уровня содержания дорожного полотна и дорожно-транспортной инфраструктуры, и т. д.
Или же еще одна перспективная сфера применения ИИС – обеспечение общественной безопасности, включая, при необходимости и социальный мониторинг (отслеживание и контроль перемещения, распознавание лиц, контроль за использованием электронных платежных средств). Здесь, правообязанности интеллектуальных агентов так же должны следовать за возложенной на них функцией, включая правообязанности использования персональных данных (в том числе сведения ЗИЦ[15]15
В Зональном информационном центре ГУ МВД России по г. Москве собирается вся статистика, все данные, отражающие картину криминогенной обстановки в столице.
[Закрыть] и РИЦ[16]16
ООО «Региональный информационный центр» (дочерняя компания ПАО «Ростелеком») реализует федеральные проекты в рамках программы “Безопасный город”. Создаваемые подсистемы: фото-видео фиксация, весогабаритный контроль, интеллектуальное видеонаблюдение и другие элементы «Безопасного города».
[Закрыть]), данных геолокации, доступа к отслеживанию использования платежных карт, принятия решения о квалификации фиксируемой средствами слежения ситуации в качестве потенциально криминогенной или противоправной, и др.
Полагаем, примеров можно привести достаточно много, и в любом из них права (обязанности) ИИС должны быть четко функционально обоснованы и ограничены. Поэтому, как вариант, можно обсуждать законодательное закрепление частичной правоспособности для сильного и сверхсильного искусственного интеллекта посредством установления исключения из общего правила, сконструированного по типу: «Искусственные интеллектуальные системы, не являются субъектами права. В соответствии с их служебной функцией они регулируются положениями, применимыми к объектам гражданского права, за исключением случаев, когда законом предусмотрено иное».
Дееспособность
Как уже было отмечено ранее, правоспособность, является хотя и первым, но не единственным элементом правосубъектности участников правоотношений. Поэтому, помимо подходов к определению концепта правоспособности ИИС, необходимо определиться и с юридическими условиями возникновения их дееспособности. Современная российская юридическая доктрина характеризуется достаточно вариативным, в отличие от правоспособности, подходом к определению самого понятия, условиям наступления, а также закрепляет различные объемы дееспособности, учитывающие специальный и (или) индивидуальный правовой статус субъекта (рисунок 3.3).
Рисунок 3.3. Виды дееспособности
Источник: составлено автором раздела.
В отношении искусственных интеллектуальных систем, напомним, что научная дискуссия о возможности изменения правового статуса отдельных видов роботов развернулась в последние годы весьма широко. Имеются и отдельные предложения по наделению ИИС определённым объемом правоспособности и дееспособности. Так, Д.С. Гришин, ставший инициатором Законопроекта «О внесении изменений в Гражданский кодекс РФ в части совершенствования правового регулирования отношений в области робототехники», предлагает ввести легальное определение робота-агента, под которым следует признавать «робота, который по решению собственника и в силу конструктивных особенностей предназначен для участия в гражданском обороте. Робот-агент имеет обособленное имущество и отвечает им по своим обязательствам, может от своего имени приобретать и осуществлять гражданские права и нести гражданские обязанности. В случаях, установленных законом, робот-агент может выступать в качестве участника гражданского процесса» [166].
Правоспособность и дееспособность интеллектуального агента возникает только при его регистрации в специально созданном едином государственном реестре, и с момента публичного заявления его собственника о начале его функционирования в таком статусе. При этом ответственность за действия робота-агента в пределах находящегося в его собственности имущества, переданного во владение и (или) пользование робота-агента несут собственник и владелец робота-агента [166].
В целом, соглашаясь с представленной позицией о моменте возникновения правоспособности и дееспособности интеллектуального агента, в связи с его регистрацией в специализированном государственном реестре, мы не разделяем точку зрения, о том, что ИИС может быть предоставлено право иметь обособленное имущество на праве собственности, а равно, право от своего имени приобретать и осуществлять гражданские права и нести гражданские обязанности.
В отношении права иметь обособленное имущество на праве собственности, полагаем, что такое предложение не только преждевременно, но и опасно для определения потенциального вектора взаимодействия ИИС и человечества в будущем. Почему это преждевременно? Потому что совершенно очевидно, что ИИС даже самого высокого уровня, если и приобретут интеллектуальную автономность от человеческой воли в принятии решений, то «физиологическую» автономность (то есть способность системно физически воздействовать на материальные объекты), для того чтобы иметь возможность полноценно распоряжаться своим имуществом получат еще очень и очень нескоро, если получат вообще. Почему это опасно? Опасность такого подхода детерминируют сразу несколько факторов. Во-первых, не имея возможности самостоятельно воздействовать на вверенное ему материальное имущество, но имея такое право, ИИС будут вынуждены привлекать к его (имущества) эксплуатации физических лиц, то есть, нас, людей. Это может полностью перевернуть ситуацию «главный-зависимый», или говоря проще «господин-слуга», с ног на голову, сделав человека зависимым (в том числе и материально) от искусственных интеллектуальных систем. Во-вторых, поскольку автор инициативы контекстно упоминает о возможном праве собственности на обособленное имущество робота-агента, возникает проблема с предусмотренными законодательством вариантами владения, пользования и распоряжения имуществом его собственником – в нашем случае, ИИС (например, наследование, дарение, уничтожение имущества, и др.). То же самое можно сказать и о других гражданских правах и обязанностях, которые автор законопроекта предлагает предоставить роботу-агенту, по сути, без изъятий. Все это, по нашему мнению, детерминирует проявления уже упомянутой выше «ловушки гуманности», которая может сработать непредсказуемым образом при выборе подобного пути в установлении объема прав и свобод, предоставляемых ИИС.
Поэтому, полагаем, что если и предоставлять право роботам-агентам, участвующим в гражданском обороте иметь обособленное имущество, то его основой могут быть исключительно ограниченные вещные права – право хозяйственного ведения, оперативного управления, и др. А, абсолютное вещное право – право собственности должно оставаться у субъектов, так или иначе ассоциированных с физическими лицами.
Что касается объема дееспособности ИИС, здесь в полной мере применим традиционный подход соотнесения его с объемом правоспособности по аналогии с право-дееспособностью юридических лиц и публичных образований.
В отношении контрактов, полагаем, что интеллектуальные агенты не могут иметь права заключать их самостоятельно. Их правовая субъективность должна быть ограничена статусом договорных агентов, и, в конечном счете, в любых договорных отношениях с их участием должен присутствовать и прослеживаться бенефициар (физическое или юридическое лицо). Из-за подчиненной функции ИИС, на которой мы настаиваем, нет необходимости закреплять за интеллектуальными агентами все возможности, которые договорное право может предложить. Необходимо предоставить им только те возможности, которые востребованы для заключения и исполнения договоров бенефициара.
Деликтоспособность
Как уже отмечалось ранее в исследовании, деликтоспособность, есть способность субъекта самостоятельно нести ответственность за вред, причинённый его противоправным деянием (действием либо бездействием). Исходя из функциональной природы возможной частичной правоспособности ИИС, ключевой вопрос здесь заключается не в том, должен ли интеллектуальный агент сам нести ответственность, а в том, как выявить лицо, ответственное за действия интеллектуальных агентов. Разумный агент действует от лица своего хозяина, а значит, и причиненный вред должен рассматриваться соответственно. Иными словами, поскольку деликт совершается в рамках развертывания, ответственность должна, как обычно, возлагаться на лицо, получающее прибыль от развертывания. В общем праве очевидным решением было бы применение правила respondeat superior (отвечает старший), которое гласит, что хозяин несет ответственность за действия своих агентов. Например, в Соединенных Штатах существуют обстоятельства, когда работодатель несет ответственность за действия сотрудников, совершенные в ходе их работы.
Однако против такого универсального подхода есть ряд возражений.
Во-первых, трудно определить ответственность за ущерб, причиненный автономным роботом. Обычно повреждение, вызванное автономным роботом, может возникнуть из дефекта механической (программной) части, который означал бы, что производитель недостаточно информировал клиента об опасностях, связанных с автономными роботами, или что системы безопасности робота были недостаточны. В данном случае, мы сможем проследить ответственность до производителя или разработчика ПО.
Если робот продается с открытым исходным кодом программного обеспечения, лицом, несущим ответственность должно, в принципе, быть тем, кто запрограммировал приложение, которое привело к повреждению робота. Микророботы, как правило, все чаще продаются с (полным или частичным) открытым исходным кодом программного обеспечения, что позволяет покупателям разрабатывать свои собственные приложения. В принципе, договор регулирует отношения между сторонами. «Open Robot Hardware» – это еще одна тенденция, где как программное, так и аппаратное обеспечение робота являются открытым исходным кодом. Если робот причиняет какой-либо ущерб, который может быть прослежен до его проектирования или производства, например, ошибка в алгоритме робота, вызывающая вредное поведение, разработчик или производитель должны нести ответственность. Однако здесь вид ответственности может варьироваться в зависимости от того, купил ли потерпевший робота (договорная ответственность) или является третьим лицом (внедоговорная ответственность).
Во-вторых, ущерб, причиненный автономными роботами, может быть прослежен до ошибки пользователя. Если робот причиняет какой-либо ущерб во время использования или во время обучения, его пользователь или владелец должны нести ответственность. В этом отношении решение может варьироваться в зависимости от того, является ли пользователь профессионалом, или жертвой. Например, любой ущерб, связанный с инструкцией робота профессиональным пользователем и нанесенный жертве третьей стороны, влечет ответственность профессионального пользователя. Совершенно другая история, если такой же ущерб был причинен жертве, которая была профессиональным, оплачиваемым пользователем, поскольку тогда это будет считаться несчастным случаем на работе.
В-третьих, не исключен перехват управления и перепрограммирование ИИС, повлекшие причинение вреда третьим лицам, здесь, очевидно ответственность должна быть применена к злоумышленнику, осуществившему указанные действия.
Тем не менее, развитие современных технологий может привести к дальнейшим беспрецедентным трудностям, когда будет сложнее установить, что вызвало причинение вреда в определенных ситуациях, особенно если робот способен к самообучению и принятию автономных решений. Однако говорить о том, что машина может частично или полностью нести ответственность за свои действия или бездействие просто не имеет смысла.
Правообладателям!
Данное произведение размещено по согласованию с ООО "ЛитРес" (20% исходного текста). Если размещение книги нарушает чьи-либо права, то сообщите об этом.Читателям!
Оплатили, но не знаете что делать дальше?