Текст книги "НеВенец творения. Всё, что вы боитесь знать о будущем"
Автор книги: Игорь Диденко
Жанр: Прочая образовательная литература, Наука и Образование
Возрастные ограничения: +16
сообщить о неприемлемом содержимом
Текущая страница: 7 (всего у книги 28 страниц) [доступный отрывок для чтения: 9 страниц]
Как выяснили журналисты, Ring позволял следить за своими клиентами не только алгоритмам, но также инженерам и разработчикам, которые могли наблюдать через видеокамеру устройства все, что происходило около дверей дома клиента, в том числе и то, с кем возвращался домой сам владелец «умного звонка». Более того, в процессе расследования выяснилось, что видеопоток с камер клиентов изначально не шифровался и доступ к нему могли получить сторонние лица.
Данный факт стал свидетельством абсолютной беззащитности пользователей перед лицом несанкционированного внешнего вмешательства в частную жизнь через «умные» устройства. Получается, что граждане сами приобретают себе таких «внешних наблюдателей», якобы в интересах собственной безопасности, на деле же просто отказываясь от тайны частной жизни. А ведь «умные» устройства уже давно не экзотика, а реальность, причем во многих странах мира.
Так, по данным аналитической компании IDC, объем рынка «умных» вещей только в России в 2018 году составил почти 4 млрд долларов. Эксперты прогнозируют увеличение этого показателя вдвое до 2021 года включительно, при этом отмечают, что большинство «умных» устройств уже управляются голосом, что еще 3 года назад было почти невероятно.
Безусловно, у потребителей «умных» товаров появляются все новые потребности, которые рынок старается оперативно удовлетворять. Борясь за лидирующие позиции на перспективном рынке «умных» устройств, производители постоянно совершенствуют свой товар и заботятся о безопасности (например, следят за тем, чтобы человек не ставил приборы близко к электрической плите или раковине).
Конечно, такие замечательные «умные вещи» значительно облегчают нашу жизнь, делают ее удобнее и комфортнее: первый принцип социально-технологической эволюции действует всегда. Тем не менее, проблема информационной безопасности «интеллектуальных устройств» стоит очень остро. Как правило, вся «умная» техника управляется через мобильные приложения, которые довольно легко взломать. И это дает огромный простор для преступной деятельности – можно следить за пользователями или просто дистанционно выводить из строя приборы. Эксперты предупреждают, что, так же как и с финансовым мошенничеством, риски для пользователей становятся все более значительными.
Специалисты приходят к выводу, что полностью контролировать эти риски невозможно: как и в случае с банковскими картами и мобильными финансовыми приложениями, уже появилась целая индустрия мошенников, которые ставят своей целью взлом и управление «умными» устройствами в своих интересах.
Лаура Дорнхайм, представитель компании AdBlock Plus (блокировщик рекламы), в своем интервью журналу «Snob» предостерегает: «Например, если на сайте вы видите кнопку Facebook, значит, соцсеть «знает», что вы посещали этот сайт. Даже если вы не нажимали на саму кнопку. Жутковато, правда? Вообще, я бы не советовала использовать авторизацию через аккаунты Facebook или Google на сторонних сайтах. Лучше потратить пару минут и создать отдельный аккаунт. И пароль не придумывать самостоятельно, а воспользоваться генератором паролей.
И, конечно, если вы ищете какую-то деликатную информацию, например информацию о серьезных заболеваниях, следует, по крайней мере, использовать приватный поиск в браузере, а еще лучше – воспользоваться браузером Tor, через него крайне сложно отследить человека.
Расплачиваясь в интернете своей картой, всегда имейте ввиду, что эту транзакцию могут отследить. Внимательно читайте пользовательские соглашения, устанавливая приложения на свой мобильный телефон. Есть много бесплатных приложений, например игр, которые предупреждают, что приложение может использовать ваш микрофон, хотя для игры он не нужен. Периодически такие «программы-шпионы» записывают фрагменты происходящего и потом на основе этого предлагают контекстную рекламу. А вся информация о вас хранится где-то на сервере, и неизвестно, кто еще и с какой целью может ее использовать.
Я бы никогда не стала пользоваться Siri или любым другим голосовым помощником. В моем доме нет ни одного «умного» девайса. Да, это может быть удобно, но вы становитесь уязвимым».
Не одна Лаура Дорнхайм указывает на риски установки на мобильный телефон бесплатных приложений. Журналисты издания «The Bell» выяснили, что из ТОП-100 российских программ для мобильного телефона 89 делятся пользовательскими данными клиентов со сторонними организациями, а 97 из ТОП-100 приложений используют рекламные программы (так называемые трекеры), которые помогают Google, Facebook и другим сервисам распознавать аккаунт пользователя в любых приложениях и показывать ему соответствующую рекламу. То есть из ста самых популярных бесплатных приложений в российском Play Store вообще не используют трекеры только три, что может означать почти полное отсутствие безопасности данных пользователя.
А издание «TechCrunch» провело расследование, в ходе которого оказалось, что многие популярные приложения во всем мире записывают все происходящее на экране IPhone, естественно, не уведомляя об этом пользователей. Делается это «исключительно с целью сбора аналитических данных».
Журналисты выяснили, что большинство данных при сборе такой информации передается по незащищенным каналам, и, при желании, злоумышленники могут получить доступ в том числе и к личным данным пользователей.
Издание рассказало, что все это стало возможным благодаря аналитической технологии GlassBox, которая дает возможность лицам, получающим доступ к соответствующей базе, просматривать даже данные о кредитной карте и пароле пользователя, иметь доступ к его конфиденциальной банковской информации и ключам. Один из слоганов GlassBox просто завораживает своей откровенностью: «Представьте, что вы можете смотреть в режиме реального времени, что делают ваши клиенты».
В России, как писали СМИ, в подобную ситуацию в прошлом году попали клиенты Burger King, один из которых выяснил и опубликовал информацию, что при запуске соответствующего приложения начинается запись видео с экрана смартфона. Впоследствии это видео якобы отправлялось на сервера компании. По сообщениям СМИ, после публикации информации Роскомнадзор даже начал проверку деятельности компании Burger King в России.
В основном пользователи приложений и технических новинок не обращают внимания на такие «легкие недоразумения», как нарушения приватности или утечку персональных данных, считая это естественной платой за тот комфорт и удобство, что дают людям технологичные гаджеты. Всероссийский Центр Изучения Общественного Мнения (ВЦИОМ) в 2019 году даже провел опрос на эту тему и опубликовал его результаты. Согласно данным ВЦИОМ, 52 % россиян не видят никакой угрозы в использовании своих персональных данных третьими лицами.
Тем не менее, все чаще люди задумываются о своей уязвимости из-за чрезмерного увлечения различными высокотехнологичными девайсами. Так, например, многие владельцы фитнес-трекеров Fitbit, компанию-производителя которых купил Google, предпочли отказаться от использования устройств, опасаясь передачи данных о своем здоровье и образе жизни рекламным и страховым компаниям, сообщил в ноябре 2019 года канал CNBC. Как рассказали журналисты, причиной отказа от ношения фитнес-трекеров их владельцы называли именно то, что они беспокоятся о своей приватности. При этом качество устройства и характеристики трекеров Fitbit пользователей вполне устраивали.
Многие IT-специалисты знают, предупреждают и даже показывают своим примером, что взломать «умный» гаджет, иногда таким образом получив доступ к персональным данным всех пользователей девайса, в общем-то несложно. Так, осенью 2019 года по соцсетям разошлась история, рассказанная девушкой-хакером Анной, которая, сама того не ожидая, получила доступ ко всем автоматическим кормушкам для животных от китайской фирмы FURRYTAIL (орфография автора поста сохранена).
«…Вот эти автоматические кормушки продаются по пять тыщ рублей минимум. Добротный девайс, надо сказать. Работает хорошо. Сейчас я продолжала изучать их API и случайно получила доступ ко всем кормушкам этой модели в мире. У меня на экране бегают логи со всех существующих кормушек, я вижу данные о вайфай-сетях бедных китайцев, которые купили себе эти устройства. Могу парой кликов неожиданно накормить всех котиков и собачек, а могу «наоборот» лишить их еды, удалив расписания с устройств. Вижу, сколько у кого в миске корма сейчас лежит.
Не представляю сейчас, что с этим делать, это мой самый успешный (и неожиданный) взлом, так что я немного в ступоре».
Эта же девушка на своей странице в соцсети рассказала о том, как можно удаленно управлять самокатами Xiaomi M365 и Ninebot ES1/2/4, объяснив их уязвимости особенностями непродуманного изначально протокола, который, как выяснилось, вообще не предполагает какой-либо авторизации пользователей. То есть ошибки в протоколе просто невозможно исправить, можно лишь полностью поменять протокол, что равноценно выпуску новой модели самоката Xiaomi. Вот что пишет Анна в соцсети (орфография автора сохранена):
«Да, самокаты можно запаролить, но знаете, как проверяется авторизация? Приложение шлет запрос самокату «эй, вот этот пароль правильный?» и получает ответ «да, все ок» или «нет, он неправильный». Если получает первый ответ, приложение рисует вам интерфейс управления самокатом, а если второй, выводит ошибку. Только вот никакая сессия не устанавливается, а все дальнейшие запросы выполняются без паролей и ключей. Это просто проверка… Вы можете вырезать ее из приложения и делать с самокатом что угодно. Это я выяснила, когда интегрировала статус самоката в систему умного дома.
Поверьте, такие уязвимости не допускаются случайно, это просто изначальное нежелание нормально продумывать протокол… На самом деле приложение завершает регистрацию еще до того, как просит вас нажать кнопку. А если вы ее не нажмете, регистрация просто сбрасывается. Если почитаете мой разбор протокола, вы поймете, что можете управлять соседскими чайниками, даже не имея физического доступа в квартиру».
Скорее всего, таких случаев множество, просто далеко не все они оказываются на страницах СМИ и социальных медиа. А ведь в бэкдорах (специально оставленных «дырах» в протоколе) обвиняют не только разработчиков «умных» вещей, но и мессенджер WhatsApp, например, и некоторые социальные сети…
Вообще, когда на рынке появились бесплатные сервисы (те же мессенджеры или приложения), многие задавались вопросом, в чем суть таких «бизнесов»: ведь они не генерировали положительный денежный поток, так как предоставляли абсолютно бесплатные услуги, а перспектив монетизации не просматривалось. Вскоре товаром стали сами люди, точнее, их персональные данные. Зарабатывать на этом оказалось едва ли не выгоднее, чем на рекламе.
И вот уже сам легендарный «создатель интернета», программист и общественный деятель Тим Бернерс-Ли бьет в набат, требуя сделать интернет «безопаснее». «При поддержке правительств Франции и Германии, компаний Microsoft, Google, Facebook и более чем 160 других компаний» он провозглашает осенью 2019 года «принципы безопасного интернета» (ниже приведены основные):
1) поддерживать доступ в интернет каждого человека в любое время, всегда и везде, по доступным ценам;
2) уважать право на неприкосновенность личных данных;
3) развивать лучшее в человеке;
4) пользователи должны выступать со-творцами интернета, уважать права и достоинства других пользователей, защищать интернет.
В противном случае, предупредил Бернерс-Ли, всемирная сеть станет «источником киберпанковой антиутопии».
«В этот ключевой момент для интернета мы несем общую ответственность за борьбу за сеть, которую мы хотим. Многие из наиболее активных участников кампании по этому вопросу уже осознали, что совместный подход имеет решающее значение. Силы, ведущие сеть в неправильном направлении, всегда были очень могущественны. Независимо от того, являетесь ли вы компанией или правительством, управление сетью – это способ получения огромных прибылей или способ гарантировать, что вы остаетесь у власти», – предостерегает Бернерс-Ли.
Конечно, очень здорово, что такой уважаемый в мире высоких технологий человек, как Тим Бернерс-Ли, озаботился столь важной проблемой, как состояние интернета, но… есть ощущение, что его идеи немного запоздали, приблизительно лет на пятнадцать.
Кроме того, Бернерс-Ли обходит стороной ключевой, на самом деле, вопрос. Для того, чтобы реально воплотить в жизнь возвышенные «принципы безопасного интернета», нужно… запретить использование технологии Big Data, то есть сбор любых персональных данных. А ведь без «больших данных» невозможно обучать нейросети, то есть развивать искусственный интеллект. А это уже прямое нарушение третьего принципа социально-технологической эволюции и отказ от технологического прогресса. Вы серьезно верите в возможность повернуть эволюцию вспять?
В общем, учитывая, что интернет уже давно стал ареной настоящей кибервойны между конкурирующими государствами и способом получения высокотехнологичными корпорациями сверхдоходов путем эксплуатации «экономики внимания» и использования персональных данных граждан (зачастую без ведома самих пользователей), ожидать, что кто-то немедленно бросится исполнять «заветы Тима», бессмысленно.
Это подчеркивает Бенджамин Гарфилд, научный сотрудник Школы медиаискусств и технологий Солентского университета в Великобритании, в интервью медиапорталу «The Conversation»: «Алгоритмы таких компаний как Google, Facebook и Twitter определяют, что люди видят в интернете. Google зарабатывает на людях, которые пользуются его бесплатными услугами, за счет сбора данных пользователей для создания таргетированной рекламы, и его бизнес-модель вряд ли изменится в одночасье. Для успеха интернет-реформы потребуется сотрудничество между правительствами разных стран для эффективного регулирования работы технокомпаний, а также реакция со стороны пользователей».
Похоже, риски для «вычислительных машин предыдущего поколения», или, как любят выражаться ученые-биологи, «наборов из 46 хромосом», будут только возрастать. Для того, чтобы полностью устранить их, пользователю нужно не только соблюдать множество правил «киберграмотности», но желательно еще и разбираться в информационных технологиях, понимать, что, с точки зрения собственной безопасности, делать необходимо, а чем можно пренебречь, дабы не слишком усложнять собственную жизнь. Впрочем, то же самое можно сказать и о финансовой грамотности: как говорится, лучший способ быть финансово грамотным – это получить профильное образование.
Поэтому, принимая во внимание киберриски, возникшие для людей с появлением новых технологий, наверное, не стоит сильно преувеличивать именно их. В конце концов, технологические риски были всегда: с изобретением железных дорог и автомобилей появился риск попасть под поезд или машину, с появлением самолетов неминуемо возник шанс попасть в авиакатастрофу.
Тем не менее, в последние годы появилось немало рисков глобального масштаба, о которых стоит поговорить отдельно. Один из них – стремительное развитие военных технологий.
В 2019 году высокотехнологичные гиганты Amazon и Microsoft подтвердили, что, невзирая на протесты сотрудников, будут принимать участие в военном проекте Соединенных Штатов – JEDI, направленном на «повышение смертоносности» вооруженных сил Пентагона с помощью искусственного интеллекта. Alphabet (Google) публично отказался участвовать, сославшись на корпоративную этику.
Повсеместно искусственный интеллект все активнее используют в военных проектах, дискуссия об этичности этого публично не ведется, а риски не афишируются. Неудивительно, что мировые лидеры уже не рассматривают войну как нечто далекое и фантастическое, думая и даже говоря так, как в 2019 году выразился китайский лидер Си Цзиньпин: «Необходимо сконцентрироваться на задачах и быть готовыми к войне».
Появляются и совершенно новые технологии, такие, как, например, Автономные Боевые Системы (АБС). Это боевые роботы, которые смогут самостоятельно принимать решение о применении смертоносного оружия, и они становятся все более популярной идеей в военных ведомствах разных государств мира. США, Великобритания, страны ЕС, Китай, Россия, Индия, Израиль, Южная Корея – это далеко не полный перечень государств, значительно продвинувшихся в последние годы в разработке АБС.
Руководство Пентагона не скрывает, что в ближайшие годы Автономные Боевые Системы станут неотъемлемой частью вооруженных сил США. При этом противники технологии резонно указывают, что искусственный интеллект не может на свое усмотрение принимать решение о применении летального оружия. Представители военных ведомств в ответ замечают, что прогресс достиг такого уровня, что повсеместное распространение АБС становится лишь делом времени. Ведь такой робот гораздо менее уязвим, чем солдат из плоти и крови, дешевле в эксплуатации, а (самое главное) практически любую его ошибку при желании можно списать на технический сбой.
Несмотря на жаркую дискуссию вокруг использования Автономных Боевых Систем, страны, пытавшиеся обратить внимание на опасность технологий АБС для человечества, в свое время даже не смогли получить мандат на создание рабочей группы по обсуждению этого вопроса в рамках Организации Объединенных Наций. Ведь плюсы Автономных Боевых Систем для оборонных ведомств всех стран мира настолько очевидны, что долгосрочными рисками, похоже, будут пренебрегать до последнего. Кстати, пренебрежение долгосрочными рисками ради краткосрочных выгод уже стало мировым трендом.
Об огромных рисках использования АБС с искусственным интеллектом предупреждает Лора Нолан, бывшая сотрудница Google, работавшая в этой мегакорпорации над проектом по усовершенствованию технологии военных беспилотников. Она уверена, что, в отличие от беспилотных летательных аппаратов, которые контролируются операторами, зачастую находящимися за тысячи километров от места дислокации беспилотников, Автономные Боевые Системы могут совершать «ужасные вещи, для которых они изначально не были запрограммированы».
Она считает, что автономные роботы-убийцы, не управляемые человеком, должны быть запрещены международным договором наподобие тех, которые запрещают химическое или биологическое оружие: «Вероятность катастрофы прямо пропорциональна тому, сколько этих машин будет находиться одновременно в конкретном районе… Может случиться все что угодно, если роботы начнут вести себя неожиданным образом. Поэтому любые передовые системы вооружений должны полностью контролироваться человеком, в противном случае они должны быть запрещены, потому что слишком непредсказуемы и опасны».
Очень хочется надеяться, что такие боевые системы все-таки не будут полностью автономными. Ведь любое вторжение кибертеррористов в системы принятия решений АБС может привести к поистине катастрофическим последствиям – тем более что сетевые злоумышленники с усилением темпов технологического прогресса тоже прогрессируют. В 2019 году на одной из конференций хакеров была продемонстрирована программа, которую было возможно настроить так, чтобы она самостоятельно генерировала вредоносное (вирусное) программное обеспечение.
Программе было достаточно потренироваться на стандартной платформе для обучения искусственного интеллекта Open AI Gym, чтобы довольно быстро научиться прятать вредоносное программное обеспечение от систем защиты. Каким образом? Все оказалось банально и просто: антивирусные системы просто не могли распознать угрозу, настолько успешно алгоритм имитировал нормальное поведение, мимикрируя под обычные, часто используемые пользователем программы.
А ведь если такого рода технологии будут доработаны злоумышленниками и станут широко распространены, это позволит искусственному интеллекту и стоящим за ним хакерам наносить компьютерам пользователей и даже объектам государственной инфраструктуры максимальный урон при минимальных рисках быть обнаруженными. Не хочется даже представлять себе, что в этом случае могут натворить взломанные кибертеррористами Автономные Боевые Системы.
Впрочем, бывает, что искусственный интеллект может наломать дров и самостоятельно, без участия всяких «сетевых злоумышленников». Например, в судебных процессах.
Многие читатели наверняка знают, что нейросети уже несколько лет используются для анализа дел и вынесения рекомендаций (правда, пока необязательных к исполнению) судьям в Соединенных Штатах Америки. Гораздо менее известен другой факт. В 2018 году более 100 общественных и правозащитных организаций США выступили категорически против использования искусственного интеллекта в уголовных судебных процессах. Оказалось, что алгоритмы, изучая дела и характеристики подсудимых в рамках так называемой «оценки рисков», слишком большое значение уделяют социальному происхождению и жизненной истории обвиняемого.
Иными словами, при принятии решения о тех или иных рекомендациях судьям, искусственный интеллект основывается на закономерностях, которые он выводит исходя из полученных данных. Нейросети обучаются на массивах Big Data, а эти данные зачастую позволяют сделать статистический вывод о том, что представители социально незащищенных слоев более склонны к уголовным преступлениям и насилию, нежели выходцы из обеспеченных и благополучных семей.
И действительно, если алгоритм видит, что, например, низкий доход прямо коррелирует с высоким рецидивом преступлений, он может дать на этом основании ошибочную рекомендацию судье, посчитав, что именно низкий доход способствовал преступлению. На самом же деле причинно-следственные связи могут быть совершенно иными.
Многие правозащитники указывают, что использование искусственного интеллекта в уголовном процессе закрепляет социальное неравенство и приводит к обвинительному уклону в отношении представителей социально неблагополучных слоев населения значительно чаще, нежели чем в отношении среднего класса и обеспеченных граждан. А это уже прямой путь к возрождению классовых, а возможно и расовых предрассудков.
С одной стороны, кажется, что большинству стран мира до полноценной цифровизации и внедрения искусственного интеллекта еще далеко. С другой стороны, людям постепенно нужно привыкать к тому, что в преддверии технологической сингулярности в их повседневную жизнь все больше будет входить искусственный интеллект, и не всегда это будет происходить комфортно и безболезненно.
Это понимают, кстати, власти многих стран мира. Например, бывший российский премьер-министр Дмитрий Медведев высказывался о цифровизации предельно конкретно. «[Цифровая] революция – это и углубление неравенства и между людьми, и между странами, и всплеск безработицы, и вторжение в частную жизнь человека», – отмечал он в своем выступлении на саммите АТЭС в 2019 году, добавляя при этом, что данная революция является «абсолютным благом с точки зрения общественного развития». В другой раз Дмитрий Анатольевич сравнил масштабы изменений, ожидающие общество при цифровизации, с крушением Союза Советских Социалистических Республик.
Да, общество ждут изменения, причем колоссальные. Помимо беспилотников на дорогах, повсеместного распознавания лиц, 100 % безналичных платежей и электронного документооборота в скором времени могут стать реальностью и беспристрастный «алгоритмический» суд, и супермаркеты без обслуживающего персонала, и даже наделение машин статусом «субъектов права» (по аналогии с физическими и юридическими лицами). И это не шутка. Как писали российские СМИ, сегодня по инициативе экспертов нацпроекта «Цифровая экономика» ведется разработка кодекса прав машин и искусственного интеллекта (сейчас это называется «Федеральный закон, регулирующий правоотношения в сфере киберфизических систем». В рамках этого национального проекта обсуждают и создание Федерального агентства по робототехнике и искусственному интеллекту и даже внедрение «машиночитаемого права и автоматического правоприменения» в сфере действия не только, например, Правил дорожного движения, но и других кодексов.
Впрочем, в российских реалиях судебный процесс, основанный на непредвзятом анализе «больших судебных данных» искусственным интеллектом – скорее благо, чем бедствие. Процессы станут менее затратными, не такими долгими и более предсказуемыми, а право – фактически прецедентным (если, конечно, не будет вмешиваться человеческий фактор). Алгоритм на основании одинаковых данных судит всегда одинаково, а два разных судьи-человека в одной и той же ситуации могут принять противоположные решения, по-разному оценив обстоятельства дела. Про устранение из процессов коррупционной составляющей нечего и говорить – искусственный интеллект не берет взяток.
Посмотрим на ситуацию с другой стороны. Что будет, если алгоритмы начнут выписывать штрафы за нарушения и исполнять надзорные функции, посредством, например, установленных повсюду камер видеонаблюдения? Здесь все зависит от того, как и кем они будут управляться и настраиваться. Хочется верить, что в этом случае операторы «контролирующих систем» будут действовать особенно аккуратно. Видеофиксация нарушений означает почти автоматическое принятие презумпции вины нарушителя, поскольку камера, алгоритм, нейросеть, если они правильно настроены, просто не могут ошибаться.
Кстати, как отмечают правозащитники, даже без использования искусственного интеллекта в судебном процессе в последние годы в мире утвердился тренд на упрощение судопроизводства и увеличение числа обвинительных приговоров.
Так, в рамках сделок с правосудием (когда обвиняемый признает свою вину в обмен на смягчение приговора) по федеральным уголовным делам в США уже выносится 97 % приговоров. Для сравнения: в 90-х годах эта цифра составляла лишь 10 %. Американская практика, похоже, оказывает влияние на весь мир: за последние 30 лет в 90 странах число таких приговоров выросло более чем в 3 раза. В России, например, приговоры по сделке с правосудием составляют 92 % всех уголовных дел.
Эти цифры показывают, как незаметно во всем мире начинает превалировать «алгоритмическая» логика презумпции вины. Если человек попал под следствие – значит, виноват. Если не может доказать происхождение своих денег – виноват на 100 %, даже если это совокупные сбережения членов семьи всех предыдущих поколений. А дороговизна адвокатских услуг в развитых, да и в развивающихся странах не располагает к активной и эффективной защите от следственных органов. Проще смириться и пойти на сделку со следствием и получить условный срок или даже просто штраф вместо реального срока.
В таких обстоятельствах вероятность того, что многое сведется к надзорным и карательным функциям искусственного интеллекта, довольно велика. В Китайской Народной Республике, например, видеокамеры сейчас устанавливаются даже в мусорных баках – они определяют человека, который неправильно сортирует и выбрасывает мусор, а аналитическая нейросеть с помощью системы распознавания лиц автоматически выписывает ему штраф, как и нарушителям на пешеходных переходах (о новейших технологиях учета и контроля с помощью искусственного интеллекта читатель сможет подробнее прочитать в главах 4 и 5).
Кстати, тот же Дмитрий Медведев в своих выступлениях упоминал о перспективах создания в России «умных дорог», которые будут сами отслеживать нелегальные перевозки, несоблюдение Правил дорожного движения, и, видимо, сами, в автоматическом режиме штрафовать нарушителей. С одной стороны, это правильно. Чем меньше контактов между людьми, тем ниже вероятность коррупции и различных нарушений. Но если довести эту мысль до абсурда, можно прийти к простому выводу: если людей не будет вообще, никаких нарушений не случится в принципе. Останется только научить роботов потреблять, и общество станет стабильным и утопично-идеальным.
А ведь научить машины потреблять – не такая сложная задача, как может показаться на первый взгляд. Возможно, в будущем социально-технологическая эволюция пройдет через этот этап «на пути к полной технологической сингулярности», в особенности, если, как считает американский бизнесмен-визионер Илон Маск, «самая большая проблема, с которой столкнется мир в следующие 20 лет – демографический коллапс (именно коллапс, а не взрыв)».
Но, даже если демографический коллапс (а он на самом деле очень вероятен, и подробнее читатель сможет прочитать об этом в следующих главах) минует нашу многострадальную цивилизацию и роботы-потребители не заполнят улицы мегаполисов будущего, новейшие «умные» технологии потребуют от человека колоссальных изменений в поведении, мышлении, потреблении. И очень большой вопрос, сможет ли после такой адаптации «человек разумный» вообще называться человеком.
Возможно, в условиях постоянного контроля под страхом абсолютно неминуемого наказания он сам превратится в человекоподобную машину, которая будет рефлекторно принимать единственно верные решения. Конечно, они не будут никем диктоваться (нет, ни в коем случае!) сверху, но «боязнь мыслепреступления» будет настолько велика, что многие действия человека станут автоматическими, как безусловно машинальным станет соблюдение многочисленных правил и кодексов.
Даже если до этого не дойдет, людям все равно придется осваивать «машинное мышление». Алгоритм не рассуждает «духом закона», он руководствуется только «буквой». Если предписание не выполнено досконально и в полном объеме – вам положен штраф: искусственный интеллект непредвзят и не может ошибаться. Недавний пример, вызвавший, кстати, бурю эмоций в социальных сетях – тысячи штрафов за нарушение Правил дорожного движения с камер перед стоп-линиями в Москве. Водители привыкли перед ними притормаживать и не всегда останавливаются полностью. Но в «глазах» алгоритма такое поведение – очевидное нарушение: он должен либо зафиксировать полную остановку автомобиля, либо выписать штраф. Точно так же алгоритм автоматически отключит человеку электричество или газ за просрочку платежа, несмотря на время года и температуру за окном.
В будущем алгоритмы смогут не только судить, контролировать и штрафовать. При желании они смогут еще и заниматься политикой и международной дипломатией, эффективно обосновывая любую позицию и претворяя ее в жизнь. Так, профессор Оксфордского Университета Корнелиу Бйола в своей статье для испанского Королевского института международных исследований Элькано указывает на практически неограниченные возможности в этих сферах: «Системы искусственного интеллекта смогут помогать посольствам и структурам Министерств иностранных дел осмысливать суть и масштабы событий в реальном времени, упрощать процесс принятия решений, разбираться с ожиданиями общественности и способствовать прекращению кризиса». Ученые считают, что алгоритмы как минимум смогут помочь найти наилучшую стратегию ведения переговоров, анализируя большие данные и делая прогнозы на их основе. Искусственный интеллект просто незаменим для работы с огромными массивами информации, и некоторые исследователи считают, что в скором времени без консультаций с алгоритмами не будет приниматься ни одно важное политическое или управленческое решение.
Правообладателям!
Данное произведение размещено по согласованию с ООО "ЛитРес" (20% исходного текста). Если размещение книги нарушает чьи-либо права, то сообщите об этом.Читателям!
Оплатили, но не знаете что делать дальше?