Текст книги "Искусственный интеллект. Большие данные. Преступность"
Автор книги: Елена Ларина
Жанр: Публицистика: прочее, Публицистика
Возрастные ограничения: +16
сообщить о неприемлемом содержимом
Текущая страница: 4 (всего у книги 22 страниц) [доступный отрывок для чтения: 7 страниц]
• помехозащищенные многоканальные средства и системы информационно-управля-ющего взаимодействия и опознавания;
• интеллектуальные программно-алгоритмические средства, позволяющие обеспечить распознавание объектов и рабочей обстановки, рефлексивное прогнозирование развития событий, планирование рационального (оптимального) поведения и, как следствие, адаптивное контролируемое функционирование роботов специального назначения в неопределенных, динамически изменяющихся разнородных условиях применения;
• интеллектуальные программно-алгоритмические средства, позволяющие обеспечить интеграцию разнотипных роботов специального назначения в единую группу с последующим управлением их совместными действиями в однотипных, разнотипных и смешанных боевых порядках;
• интеллектуальные системы человеко-машинного интерфейса и поддержки принятия решений операторами управления роботами специального назначения при решении боевых (ударных, огневых), обеспечивающих и специальных задач.
Существующие темпы развития обширного спектра прорывных разработок в области информационных технологий и робототехники к 2030 году способны обеспечить значимый прогресс в развитии базовых тактико-технических возможностей военных роботов, а также разработку и внедрение роботов специального назначения третьего и последующих поколений. Можно прогнозировать, что массовое и многомерное применение робототехники на поле боя будет инициировать в военной теории, искусстве и практике революционные изменения, соизмеримые с последствиями внедрения ракетного и ядерного оружия, автоматики и радиолокации в середине прошлого столетия[19]19
Чиров Д.С., Новак К.В. Перспективные направления развития робототехнических комплексов специального назначения. http://e-notabene.ru/nb/article_22737.html.
[Закрыть].
Несмотря на проведение нескольких конференций ООН относительно добровольного ограничения странами производства автономных боевых роботов, в настоящее время такого рода системы производятся США, Великобританией, Францией, Израилем, Россией, Китаем и Ираном. Автономные боевые роботы отличаются от относительно автономных роботов тем, что самостоятельно, т. е. на основе программ, написанных в рамках подходов ИИ, принимают решения о нанесении огневых ударов по противнику или применению наступательного кибероружия. Главная причина, почему не сработали рекомендации ООН, состоит в том, что в 2015–2016 гг. в ходе маневров и натурных военных игр, проведенных в целом ряде стран, выяснилось, что полностью автономные дроны с ИИ побеждают дроны, удаленно управляемые человеком в 9 случаях из 10. Главное преимущество дронов с ИИ состоит в быстроте оценки ситуации. Соответственно, страны, имеющие технический потенциал для производства полностью автоматизированных боевых дронов и других военных робототехнических систем, активно встали на этот путь, поскольку в противном случае оказались в заведомо проигрышном положении в отношении потенциальных конкурентов и противников.
Дилемма о повышенном риске, связанном с автономными боевыми дронами – с одной стороны, и их превосходстве над робототехническими системами, где важнейшие решения удаленно принимает человек, является своего рода моделью принятия решения в более широкой области. Вне зависимости от моральных оценок, в разделенном и враждебном мире не будут работать какие-либо технологические запреты и ограничения на применение технологий, в том числе, связанные с ИИ. В условиях отсутствия доверия и цивилизационного раскола мира, пришедшего на смену двуполярному миру, каждая страна, чей научно-технологический потенциал позволяет воплотить в реальность эффективную, пусть и самую рискованную, технологию, обязательно сделает это по той причине, что в противном случае может оказаться беззащитной перед конкурентами.
Аппаратные части роботов уже производятся в 47 странах мира. Софт для роботов пишется во всех уголках планеты, а не менее половины софта выложено в депозитариях, как открытый программный код. Единственным исключением являются законченные решения в области ИИ. Несмотря на то, что программы и компоненты ИИ широко представлены в открытых депозитариях, самые продвинутые решения в этой сфере относят к числу наиболее охраняемых ноу-хау. В настоящее время они являются монополией пяти стран мира, в основном США и Великобритании, и до некоторой степени Япония, Израиля и Китая. Ни она другая страна мира сегодня не способна изготовить по-настоящему продвинутые системы ИИ.
Необходимо различать два типа угроз. Что касается создания оснащенных элементарным ИИ дронов, вооруженных минибомбами, отравляющими веществами и т. п.,то это уже реальность и контролировать данный процесс практически невозможно. Наиболее рациональной стратегией является заблаговременное производство систем оперативного обнаружения и уничтожения подобных дронов и других типов относительно элементарных боевых роботов, которые либо уже имеются, либо в ближайшие годы окажутся в распоряжении террористических сетей и злонамеренных государств.
Идея использовать робота как орудие убийства[20]20
Подробно эти проблемы рассмотрены в работе: Е. Ларина, В. Овчинский. Роботы-убийцы против человечества. Киберапокалипсис сегодня. М., 2016.
[Закрыть] – тривиальная. Первым человеком, погибшим от робота, стал американский рабочий С. Форд в 1970-е гг. Он работал на автоматизированном предприятии, выполнявшем покрасочные работы для автомобильной индустрии. В результате нарушения программы, отвечающей за координацию автоматических манипуляторов одного из роботов, последний вместо дверцы схватил за шею рабочего и удушил его. В 2016 г. произошло первое целенаправленное убийство с использованием робота. В палате интенсивной терапии госпиталя ордена иезуитов в Сан-Мигеле больной умер от подачи в капельницу смертоносного состава вместо предписанного лекарства. Полицейские не смогли бы обнаружить данное преступление, если бы не случайность. Программист, которого банда подрядила, чтобы взломать программу, управляющую автоматической раздачей лекарств, поделился информацией в одном из закрытых чатов. В нем присутствовал осведомитель городской полиции. Благодаря ему программист был задержан, а позднее вырисовалась вся картина.
В течение 2015–2016 гг. агенты под прикрытием и осведомители ФБР и полиции США неоднократно сообщали, что преступные синдикаты по-прагматичному серьезно обсуждали различные варианты убийств, используя насыщенные электроникой автомобили, умные дома, медицинские комплексы и т. п. Поскольку у преступников обычно мысли не расходятся со словом, а слово – с делом, вполне можно ожидать появления в Америке принципиально нового явления.
ФБР всерьез готовится к появлению подпольного синдиката, специализирующегося на заказных высокотехнологичных убийствах, замаскированных под технические инциденты различного рода. Принимая во внимание объем рынка заказных убийств в США, составляющий около 2 млрд, долларов в год, мы ожидаем появление такого сетевого синдиката, а скорее всего не одного, а нескольких, во временном интервале одного-двух лет.
Главным инструментом подобных синдикатов должны быть не хакерские программы сами по себе, а ИИ. Тонкость здесь в следующем. Различного рода автоматизированные автономные системы в подавляющем большинстве управляются из единого вычислительного центра, функционирующего как ИИ. Это позволяет осуществлять роевое обучение. Соответственно, подключиться и заместить команды одного ИИ может только другой. Программисту это не под силу. Он будет распознан из-за большей медлительности и меньшей алгоритмичности действий и операций.
Плюс только ИИ под силу замаскировать злонамеренное отключение или выполнение несанкционированных действий техническим отказом. Несмотря на некоторую экстравагантность, в ближайшее время данный преступный промысел может стать реальностью.
§ 6. Этика ИИ
В 1942 г. великий Айзек Азимов в рассказе «Хоровод» сформулировал три коротких закона робототехники:
«1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
2. Робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам».
Эти три закона и являются этикой роботов и ИИ. Однако самонадеянные программисты, разработчики и деловые люди забыли об Айзеке Азимове. Сегодня не существует этики ИИ или роботов. Программы, написанные для экспертных систем или робототехники, не включают встроенные ограничители и не учитывают три закона робототехники Азимова.
Существует три принципиально разных типа реальных этических проблем, связанных с применением ИИ и неразрывно связанной с ним робототехники. Это:
• этические вопросы программирования ИИ;
• этические вопросы результатов и выводов, полученных ИИ;
• этические вопросы действия людей, принимающих решения на основе информации ИИ, а также автоматизированных робототехнических устройств, управляемых ИИ.
Практически каждая программа и приложение, тем более такие сложные как программы ИИ, содержат много ошибок. Часть из них устраняется в процессе эксплуатации, часть – остается необнаруженной в течение всего жизненного цикла программно-аналитического комплекса.
Ошибки при программировании бывают двух типов. Первый порожден некачественным кодом, т. е. просчетами и недостаточной квалификацией программистов. Здесь никаких этических проблем и вопросов юридического характера не возникает. Если программист ошибся, и его ошибки привели к тяжелым последствиям для отдельных граждан или компаний, то он несет административную или юридическую, вплоть до уголовной, ответственность. Согласно статистике в 2015 г. более 60 % открытых ФБР и полициями штатов дел, связанных с компьютерными преступлениями, было связано с деятельностью хакеров, а почти 15 % – с ошибками программистов и разработчиков, приведших к имущественному и иному ущербу. Это самая простая проблема. Она превратилась в рутину.
Второй тип ошибок гораздо более коварен. В его основе лежат неверные алгоритмы. Алгоритм представляет собой математически записанную последовательность операций и правил. Составители алгоритмов и программисты – это разные люди. Программист пишет кодом алгоритм, после чего последний превращается в работающую программу.
Главная проблема состоит в том, что алгоритмисты – это в 90 % случаев математики. Причем подавляющее число из них не имеет второго образования, и испытывают определенные сложности в общении с представителями гуманитарных знаний и профессий, включая юристов, врачей, экономистов, правоохранителей. Суть алгоритма состоит в построении цепочки действий на языке математики тех правил и закономерностей, которые сложились в реальной деятельности. Однако из-за того, что алгоритмисты и предметные специалисты зачастую не понимают друг друга, возникают ошибки в алгоритмах.
Вторая группа этических проблем связана с интерпретацией результатов программ человеком или автономным автоматизированным устройством. Если тема этики программирования обсуждается последние 15 лет, то вопрос неверных алгоритмов встал буквально в последние два-три года. Как любой сложный вопрос, он имеет множество акцентов. Главная проблемав том, что с массовым применением в программировании метода нейронных сетей даже разработчики, не говоря уже о предметниках, а тем более обычных профессиональных пользователях, как уже отмечалось, перестали понимать, почему программа делает именно такие выводы, а не иные.
Для того чтобы объяснить коллизию, придется в нескольких словах охарактеризовать отличие нейронных сетей от обычной программы. Обычная программ может быть записана на бумаге, как последовательность операций. Нейронная сеть – это самосовершенствующаяся программа. В ней задается исходно только архитектура и правила изменения удельных весов при принятии решения. Все остальное делает алгоритм. Грубо говоря, нейронные сети – это черные ящики. Известна только информация на входе и на выходе. И больше – ничего.
В тех случаях, когда нейронные сети помогают превратить фотографии в картины известных художников, никто не задает вопросов, как им это удается. Все восторгаются. Теперь же рассмотрим пример из уголовной практик.
Специалисты Массачусетского технологического института США(МТ1) еще в 2014 г. разработали программу COMPAS с элементами ИИ. Она применяется в настоящее время как экспертная система во многих судах штатов США для того, чтобы помочь судьям принять решения, рекомендовать ли ожидающим суда присяжных тюремное заключение или освобождение под залог и т. п. Программа успешно работала и получала замечательные отзывы. В итоге наряду с рассмотрением вопросов о выборе между тюремным заключением и освобождением под залог, она стала применяться также при решении вопроса об условно-досрочном освобождении.
Все было хорошо до тех пор, пока известный портал Propublica.org не опубликовал статью, привлекшую внимание всех США. Портал является электронной площадкой сообщества исследователей, негативно относящихся к ИИ. Группа известных математиков и программистов, входящих в сообщество, детально проанализировала систему COMPAS и смогла расшифровать черный ящик. Математические правила и закономерности, получившиеся в результате работы нейронных систем, удалось перевести на так называемый человекочитаемый язык. По итогам этой работы было установлено, что система априори уменьшает шансы на освобождение под залог и условно-досрочное освобождение лиц латиноамериканского происхождения, не имеющих легального статуса на территории США, а также афроамериканцев с уровнем дохода выше прожиточного минимума, но ниже среднего класса. Если первый вывод совпадал с интуицией, то второй породил всеобщее недоумение. Эксплуатация системы в результате разразившегося скандала была приостановлена.
Создатели программы COMPAS предложили порталу Propublica создать независимую группу – своего рода первый в истории Америки алгоритмическо-статистический суд, под руководством математического директора Google Абэ Гонга. Группа в течение нескольких месяцев детальнейшим образом анализировала человекочитаемые правила, выработанные нейронными сетями, и сравнивала их с массивами статистических данных, характеризующих статистику преступности. В сентябре 2016 г. группа вынесла вердикт, с которым согласились и создатели COMPAS, и портал Propublica. Абэ Гонг подтвердил, что алгоритмы COMPAS по построению нейронных сетей и глубокому обучению – математически безупречны. Безупречна также программа и в статистическом смысле. Статистическая безупречность означает то, что нейронным сетям удалось установить наиболее точную зависимость между входными данными и выходными. Т. е. между данными, представляющими профиль того или иного индивидуума и критериями риска.
Все рекомендации COMPAS были верны в инженерном смысле этого слова. COMPAS действительно минимизировал число условно-досрочных освобождений, после которых нарушители закона вновь совершали преступления, а также правильно определял, в каких случаях человека можно отпустить под залог, а в каких – лучше оставить за решеткой.
Вся проблема в том, что в основе деятельности COMPAS лежат статистические закономерности. Люди же привыкли принимать решения не только на основе статистики, но и, принимая во внимание ценностные критерии так, как они их понимают. COMPAS оказался негативно пристрастным к этническим меньшинствам, но при этом делал это на основе корректной интерпретации реальных данных.
Британский психолог Томас Хиллс полагает, что алгоритмы тоже могут совершать ошибки, поскольку они иногда воспринимают особенности окружения, которые коррелируют с итоговым результатом, хотя не имеют с ним причинно-следственной связи. В мире алгоритмов это называется переобучением. Когда это происходит, мы называем это суеверием.
На практике, пишет Хиллс, алгоритмы часто представляют собой проприетарные черные ящики, обновление которых запрещается законами коммерции. В книге «Оружие массового поражения» Кэти О’Нил от 2016 года описывается истинный парад уродов, составленный из коммерческих алгоритмов, чьи хитрые патологии портили людям жизнь. Особенно интересны алгоритмические разломы, разделяющие богатых и бедных. Бедные люди с большей вероятностью будут иметь проблемы с кредитом, жить в местах с повышенным уровнем преступности, в окружении других бедных людей с похожими проблемами. Из-за этого алгоритмы выбирают этих людей в качестве целей обманчивой рекламы, питающейся их отчаянием, предлагают им субстандартные займы, отправляют в районы их проживания больше полицейских, увеличивая вероятность того, что полиция задержит их за совершение преступлений, которые происходят с той же частотой и в более богатых районах. Алгоритмы, используемые системой правосудия, назначают таким людям большие сроки, уменьшают их шансы на условно-досрочное освобождение, блокируют для них вакансии, увеличивают проценты по ипотеке, требуют большие взносы за страховку и т. д.
Этот алгоритмический замкнутый круг скрыт в матрешках, состоящих из черных ящиков: алгоритмы-черные ящики, прячущие процесс обработки в своих мыслях высших измерений, к которым у нас нет доступа, спрятаны в черных ящиках проприетарных прав на алгоритмы.
Алгоритмы, тренируясь на человеческих данных, приобретают и наши искажения. В исследовании под руководством Айли Калискан из Принстонского университета было обнаружено, что алгоритмы, тренирующиеся на новостях, очень быстро приобретают расовые и половые предубеждения. Как отметила Калискан: «Многие люди считают, что у машин нет предубеждений. Но машины тренируются на человеческих данных. А у людей предубеждения есть».
Алгоритмы, проводящие много времени в соцсетях, быстро становятся слепыми фанатиками. Они приобретают предубеждения против медбратьев и женщин-инженеров. Они неправильно воспринимают такие проблемы, как иммиграция и права меньшинств[21]21
Хиллс Томас. Нет ли у моего алгоритма проблем с психикой, https://geektimes. com/post/300813/.
[Закрыть].
Лондонская компания DeepMind в феврале 2018 г. опубликовала статью на arXiv – хранилище научных документов, в которой предлагается новый способ построения алгоритмов без дискриминации людей по гендерным, расовым и другим «чувствительным» признакам. Статья под заголовком «Контрфактическая справедливость в принятии решений» была представлена научными сотрудниками DeepMind Сильвией Кьяппой и Томасом Гилланом. В ней говорилось о том, насколько важно понимание сложных механизмов, на основании которых ИИ будет делать соответствующий выбор.
«Контрфактическая справедливость» – это метод принятия решений с помощью ИИ. Он предполагает, что компьютеры могут квалифицировать то или иное суждение о какой-либо личности как «справедливое», если такое же суждение было сделано в воображаемом мире, в котором личность относилась к другой демографической группе на основе «несправедливых ориентиров» – другими словами, если в параллельном мире женщина была бы фактически мужчиной, или белый мужчина был бы фактически темнокожим[22]22
См.: Олсон П. Человеческая слабость: как избавить искусственный интеллект от расизма. // Forbes, 08.04.2018.
[Закрыть].
На конференции Think-2018 компания IBM спрогнозировала, что в ближайшие 5 лет ИИ должен стать менее предвзятым.
Как уже отмечалось, такая предвзятость уже сейчас приводит к дискриминации и некорректным решениям. IBM разработала и продолжает совершенствовать методику проверки наборов данных для выявления «предубеждений». Над избавлением ИИ от субъективных предвзятых оценок работают специалисты из множества различных областей, включая людей искусства, философов, юристов. Избавленный от человеческих слабостей ИИ в будущем станет подсказывать людям, если они их проявляют.
В мае 2018 г. компания Microsoft заявила, что хочет создать инструмент, который будет находить и предупреждать людей об алгоритмах ИИ, которые могут угрожать им. Новый алгоритм Microsoft для поиска предвзятых алгоритмов сможет найти и пометить только существующие проблемы. А значит программы, которые могут привести к увеличению уровня предвзятости в полиции, например, все так же будут создавать и использовать, просто не так долго, как раньше.
Чтобы создать ИИ, который будет справедливым и рассудительным, нужно привлекать независимую проверку, чтобы технические компании привлекали внешних экспертов для анализа своих алгоритмов и поиска признаков предвзятости либо в самом коде, либо в данных, которые он обрабатывает.
Идея ревизии ИИ набирает обороты, и некоторые компании по разработке ИИ начали привлекать аудиторов, которые могут взглянуть на их код. Но это также требует, чтобы ИИ был достаточно простым, либо чтобы аудитор хорошо разбирался в коде. В случае с более сложными алгоритмами глубокого обучения так не получится.
Другой возможный ответ – лучшая подготовка людей, которые фактически создают ИИ, чтобы они могли сами определять собственное мнение и предубеждение и держать их при себе, не позволяя алгоритму интерпретировать их как факт. У всех есть скрытые предубеждения, и мир технологий только выиграет от того, что поможет людям лучше понять их собственное мировоззрение.
Второй момент, на который следует обратить внимание, в известной степени носит устрашающий характер. Логика развития ИИ состоит в том, что он во все большей степени реализует принцип самодостраивания не только в программной, но и в аппаратной частях. Если пока по входу и выходу информации в нейронных сетях мы можем восстановить способы ее обработки и соответственно получить человекочитаемые правила и алгоритмы, то в ближайшее время ситуация изменится. Так, в разведывательном сообществе используются комплексы со столь глубокими нейронными сетями, что перевести их алгоритмы на человекочитаемый язык за разумное время просто невозможно. Таким образом, мы оказываемся в мире, где принятие решений будет происходить на основе критериев, которые непонятны людям, принимающим решения.
Казалось бы, в этой ситуации проще всего установить запрет на дальнейшее углубление нейронных сетей, а также на применение некоторых иных методов программирования, типа рекуррентного вероятностно-логического вывода. Однако проблема в том, что чем глубже сеть, тем она эффективнее. В высококонкурентном мире на протяжении всей истории действовал принцип, когда каждый старался заполучить наиболее эффективный инструмент. Третьей этической проблемой являются этические последствия решений, рекомендованных программами с элементами ИИ, особенно в тех случаях, когда они поддерживают решения, принимаемые не человеком, а роботом. Еще в 2012 г. ведущая международная организация по правам человека поставила перед ООН вопрос о необходимости запрещения автономных боевых систем (роботов), самостоятельно принимающих решения об использовании находящихся у них боевых средств. Несмотря на мощную поддержку со стороны правительств некоторых, в первую очередь европейских государств, решение ООН, обязательное к исполнению, по состоянию на сегодняшний день так и не принято.
Международный Комитет Красного Креста (МККК) с 2014 года постоянно призывает государства ограничить автономность систем вооружений, чтобы гарантировать, что они применяются согласно нормам международного гуманитарного права (МГП).
МККК полагает, что существует вероятность того, что все более автономные системы вооружений могут стать менее предсказуемыми, особенно в случае повышения мобильности, приспособляемости и (или) взаимодействия нескольких систем (например, действующих группой). Снижение предсказуемости результатов применения автономной системы вооружения может указывать на снижение контроля со стороны человека над функционированием данной системы вооружения, при том, что решение о применении силы принимается не человеком, а машинными операциями. Следовательно, могут возникнуть серьезные вопросы относительно соответствия данной системы вооружения нормам МГП и требованиям общественного сознания.
В апреле 2018 г. более 4 тысяч сотрудников Google подписали открытое письмо к руководству корпорации, требуя отказаться от участия в программе Пентагона по разработке ИИ боевых беспилотников. Программа Project Maven, выйти из которой потребовали сотрудники, предполагает разработку алгоритмов анализа изображений, полученных с дронов, для повышения точности их ударов. Руководство «Гугл» не продлило участие в разработке этого проекта.
Аналогичная проблема возникает и применительно к роботизированным транспортным средствам. В настоящее время семь автопроизводителей ведут работы по созданию гибридных автомобилей, где в определенных случаях может включаться робот. Google с Ford уже производят полностью автоматизированные автомобили. Toyota в 2018 г. совместно с правительством Сингапура запустила полностью автоматизированные городские такси в городе-государстве.
Так или иначе, все роботизированные машины будут управляться ИИ той или иной степени продвинутое™. В США, например, на уровне федерального правительства и штатов отсутствует какое-либо законодательство по этим вопросам. А между тем, в некоторых штатах Google-мобили уже узаконены.
Сами производители подходят у этой проблеме по-разному. Например, Mercedes в 2016 г. опубликовал заявление, что в случае соблюдения дорожных правил долг компании защищать пассажиров, а не пешеходов. В любой ситуации, если роботизированный Mercedes решит, что он соблюдает правила, выбор будет сделан в пользу пассажиров, а не пешеходов.
Принципиально иную позицию заняла компании Google. В новом поколении Google-мобилей, которым предстоит выйти на дороги в скором времени, имеется программный видеофильтр. В случае, если видеосенсоры автомобиля распознают на дороге детей или ребенка, вне зависимости от того, нарушает он правила или нет, автомобиль в качестве приоритета первого порядка будет выбирать сохранение жизни ребенка.
В любом случае возникает юридическая коллизия. Если произошло нарушение дорожных правил, повлекшее смертельный исход, то кто в данном случае будет виноват? В случае с Mercedes понятно, что тяжба будет происходить между семьей пострадавшего и корпорацией Mercedes. Ведь Mercedes в своих правилах прописала обязательный приоритет пассажиров над пешеходами. В случае Google ситуация более запутанная. Казалось бы, Google находится в том же положении, что и Mercedes. В программе Google-мобиля записан приоритет ребенка перед пассажиром. Однако, поскольку данные правила Google записаны в условиях эксплуатации автомобиля, которые подписывает покупатель, то строго говоря, покупатель соглашается с этой нормой и соответственно принимает на себя все риски.
В мае 2018 г. в рамках VIII Петербургского международного юридического форума прошла дискуссионная сессия «Беспилотный транспорт в России: необходимое регулирование для обеспечения технологического лидерства». По ее итогам юристы пришли к выводу, что для недопущения технологического отставания России необходимо в кратчайшие сроки разработать правовое регулирование в этой сфере. При этом анализировались наиболее распространенные требования для тестирования беспилотников на дорогах общего пользования в зарубежных странах, среди которых: дополнительное страхование ответственности владельца, оснащение автомобиля «черным ящиком» или двусторонней связью с диспетчерской, видеофиксация тестирований, наличие водителя или оператора в кабине беспилотного транспортного средства, подтверждение квалификации водителя-испытателя и положительных результатов испытания автомобиля на полигоне.
Четвертая проблема, которую последнее время обозначают, – это этика обращения с самими роботами.
В этой связи интересен материал из Абсурдопедии, в котором перефразированы все четыре закона Азимова:
1. Роботехник не может причинить вред роботу или своим бездействием допустить, чтобы роботу был причинен какой-либо вред.
2. Роботехник должен совершенствовать конструкцию робота, если это не противоречит Первому закону.
3. Роботехник должен защищать себя от посягательств других людей, если это не противоречит Первому и Второму Закону.
4. Роботехник не может совершить действие, причиняющее вред роботечеству и роботехничеству, или своим бездействием допустить, чтобы сообществу был причинен вред.
Следует сказать, что первый прецедент защиты прав роботов появился в 1999 г. в США. Тогда было создано Американское общество за предотвращение жестокости по отношению к роботам (ASPCR). Задача – гарантировать права всех искусственно созданных разумных существ. По мнению ASPCR, любое разумное существо (искусственно созданное или нет) имеет права, обеспеченные его Созданием, – право на существование, независимость и стремление к знаниям. Не исключено, что подобные организации будут появляться по всему свету.
Фактически реализуется модель будущего, описанная Ф. Чиландером в рассказе «Судебный процесс» о том, как роботы судили последнего человека, проживавшего в городе, за «убийство» робота.
Еще в июне 2016 г. генеральный директор Microsoft Сатья Наделла в своей статье для издания State изложил 10 принципов (своеобразных заповедей) сосуществования человечества и ИИ:
1. Главная цель создания ИИ – помочь человечеству;
2. Работы над созданием ИИ должны быть прозрачными;
3. ИИ должен быть максимально эффективен, но не унижать при этом человеческое достоинство;
4. ИИ должен обеспечивать интеллектуальную неприкосновенность и конфиденциальность личной жизни;
5. Должен существовать алгоритм подотчетности ИИ, чтобы предотвратить вред человеку;
6. Искусственный интеллект должен быть непредвзятым;
7. Человек должен научиться сопереживать другим людям, чтобы наделить ИИ свойством эмпатии;
8. Людям важно быть образованными, чтобы правильно использовать ИИ;
9. Произведения искусства должен создавать человек, а не ИИ;
10. Человек несет ответственность за решения, предложенные ИИ.
Подходы Наделлы развивают «Азиломарские принципы искусственного интеллекта». Это – 23 принципа, которых необходимо придерживаться всем, кто ведет исследования в сфере ИИ. Они приняты на конференции Beneficial Al 2017. Среди участников конференции были Рэй Курцвейл, Илон Маек и Стивен Хокинг.
В соответствии с принципами:
1) Целью исследований в сфере ИИ должно быть создание не неуправляемого, а полезного интеллекта;
2) Инвестиции в ИИ должны сопровождаться финансированием исследований по обеспечению его полезного использования, которые должны дать ответы на самые острые вопросы в области компьютерных технологий, экономики, права, этики и социальных исследований, таких как:
Как мы можем сделать будущие системы ИИ очень надежными, чтобы они делали то, что мы хотим, без сбоев или взломов?
Как мы можем увеличить благополучие человечества посредством автоматизации при одновременном сохранении имеющихся у нас ресурсов и ценностей? Как мы можем развивать наши правовые системы, чтобы сделать их более справедливыми и эффективными, идущими в ногу с ИИ и учитывающими риски, связанные с ИИ?
Правообладателям!
Данное произведение размещено по согласованию с ООО "ЛитРес" (20% исходного текста). Если размещение книги нарушает чьи-либо права, то сообщите об этом.Читателям!
Оплатили, но не знаете что делать дальше?