Автор книги: Лассе Рухиайнен
Жанр: Прочая образовательная литература, Наука и Образование
Возрастные ограничения: +12
сообщить о неприемлемом содержимом
Текущая страница: 23 (всего у книги 23 страниц)
99. Может ли искусственный интеллект привести к геополитическому неравенству или дестабилизировать обстановку в мире?
Одним из самых сложных вызовов, с которыми столкнется наше общество с развитием технологий искусственного интеллекта, является сокращение количества рабочих мест из-за автоматизации и роботизированных инструментов, о которых мы говорили в других главах этой книги.
Так или иначе, при обсуждении проблем, окружающих искусственный интеллект, есть одна тема, которой касаются не так часто: дестабилизация отношений между странами из-за развития данных технологий.
Технологии искусственного интеллекта развиваются с поражающей воображение скоростью. Все же, все крупномасштабное развитие сконцентрировано в США и Китае, где существует восемь самых крупных компаний в области создания технологий искусственного интеллекта (Google, Amazon, Facebook, Microsoft, IBM, Baidu, Tencent и Alibaba).
Доктор Ли Кайфу, президент Института искусственного интеллекта и председатель совета директоров Sinovation Ventures, рассказал об этом вызове в статье под названием The Real Threat of Artificial Intelligence в газете New York Times. Доктор Ли утверждает, что из-за того, что инструменты искусственного интеллекта понадобятся всем странам, чтобы оставаться экономически и политически конкурентоспособными, более мелким или бедным странам придется договариваться с США и Китаем, чтобы получить необходимые им технологии[353]353
Steemit, “What is the real risk of artificial intelligence?”, July, 2017, https://steemit.com/technology/@steemmaster/what-is-the-real-risk-of– artificial-intelligence
[Закрыть].
Он также говорит, что правительствам многих стран, возможно, понадобится внедрить какую-то форму безусловного базового дохода или субсидий для помощи тем, кто потерял работу из-за автоматизации. При этом правительства также столкнутся с недополучением подоходного налога от этих же людей.
Наблюдения доктора Ли очень информативны и служат стимулом для совместной работы технологических компаний и правительств, поскольку технологические компании не всегда понимают, какое влияние окажут их инструменты на общество и мир в целом[354]354
Kai-Fu Lee, “The Real Threat of Artificial Intelligence”, NYTimes, June 24, 2017, https://www.nytimes.com/2017/06/24/opinion/sunday/artifi– cial-intelligence-economic-inequality.html
[Закрыть].
Возможным решением проблемы мирового неравенства в вопросе доступности инструментов с искусственным интеллектом может стать предложение большего количества бесплатного ПО с искусственным интеллектом, а также исследований и данных, что позволит сделать эти инструменты доступными для каждого и обеспечит более устойчивое и равное развитие.
100. Может ли искусственный интеллект использоваться в качестве оружия?
К сожалению, ответ на данный вопрос утвердительный.
Давайте рассмотрим некоторые инструменты, применявшиеся в нашей истории. Во многих случаях изначально целью их создания было помочь людям выполнять задачи лучше или быстрее, однако потом эти инструменты были адаптированы под использование их в военных целях.
По мере развития технологий искусственного интеллекта и робототехники, военные организации, скорее всего, найдут способы использования данных технологий для достижения своих целей.
В августе 2017 года Илон Маск и еще 116 директоров компаний и исследователей в области технологий искусственного интеллекта из 26 стран подписали открытое письмо с требованием к ООН запретить использование вооружений с искусственным интеллектом[355]355
Tracey Lien, “Elon Musk and AI experts urge U.N. to ban artificial intel– ligence in weapons”, LATimes, August 21, 2017, http://www.latimes.com/ business/technology/la-fi-tn-musk-killer-robots-20170821-story.html
[Закрыть].
С содержанием данного письма, а также именами подписантов, вы можете ознакомиться по ссылке: https://futureoflife.org/autonomous-weapons-open-letter-2017.
Ниже приведен один из самых важных абзацев данного письма, в котором говорится следующее:
Такое [смертоносное автономное] оружие позволит вооруженному конфликту разворачиваться в большом масштабе. Это может быть настолько сокрушительная и быстрая война, что человек не может этого себе представить. Как только ящик Пандоры откроется, закрыть его будет практически невозможно. Именно поэтому мы призываем договаривающиеся стороны найти способ защитить нас всех от этой опасности[356]356
Future of Life Institute, “An Open Letter To The United Nations Con– vention On Certain Conventional Weapons”, August 21, 2017, https:// futureoflife.org/autonomous-weapons-open-letter-2017
[Закрыть].
Я надеюсь, что поддержка от лидеров в области робототехники и искусственного интеллекта вдохновит других представителей данной отрасли на то, чтобы последовать примеру этих лидеров.
Похожее открытое письмо, опубликованное Тоби Уолшем, предостерегает страны от использования технологий искусственного интеллекта в гонке вооружений. Это письмо подписали 3105 исследователей в области технологий искусственного интеллекта и робототехники, а также 17 701 человек. С данным письмом вы можете ознакомиться и подписаться под ним по ссылке: https://futureoflife.org/open-letter-autonomous-weapons.
Макс Тегмарк, основатель Института будущего жизни, предупреждает о том, что нам нужно хорошо подготовиться к будущему, чтобы изначально правильно воспринимать продвинутые технологии искусственного интеллекта. По словам Тегмарка, если с другими изобретениями и открытиями, такими как огонь, люди имели возможность совершать ошибки и учиться на них, то с развитым искусственным суперинтеллектом у нас такой привилегии нет.
Во всем, что касается развитого искусственного суперинтеллекта, даже небольшие ошибки в планировании могут привести к большим проблемам в будущем. Чтобы не дать этому произойти, Тегмарк подталкивает всех, кто участвует в создании таких технологий, заняться «конструированием безопасности». Ключевыми примерами этого подхода могут быть запрет автономного смертоносного оружия и обеспечение уверенности в распространении преимуществ технологий искусственного интеллекта на все слои общества[357]357
Andrew Anthony and Max Tegmark, “Machines taking control doesn’t have to be a bad thing”, The Guardian, September 16, 2017, https://www. theguardian.com/technology/2017/sep/16/ai-will-superintelligent-com– puters-replace-us-robots-max-tegmark-life-3-0
[Закрыть].
Кроме того, если вы заинтересованы в получении свежих новостей и дополнительной информации о данных проблемах, я рекомендую вам стать участником Института будущего жизни (Future of Life Institute). Сделать это можно по ссылке: https://futureoflife.org/get-involved/.
101. Как подготовиться к эпохе искусственного интеллекта?
Вас заинтересовали идеи и информация, с которыми вы ознакомились в данной книге? Последней моей рекомендацией будет просто создать собственный план по внедрению технологий искусственного интеллекта в вашу жизнь и следовать ему!
Подумайте об идеях того, как искусственный интеллект изменит наше будущее. Какие из этих идей показались лично вам наиболее удивительными и наиболее подходящими к роду вашей деятельности или применимыми в вашей личной жизни? Возьмите три ключевые идеи и создайте план, чтобы о них больше узнать либо чтобы начать воплощать их в жизнь.
Также очень важно понимать, с какими главными проблемами мы столкнемся по мере развития ИИ в будущем и как мы сможем решить эти проблемы. Очень часто самые популярные СМИ раскрывают лишь преимущества, которые принесет с собой ИИ. Однако нам необходимо знать, как искусственный интеллект изменит наши жизни и с какими вызовами мы столкнемся.
Постарайтесь представить себе самые большие вызовы или проблемы, которые может принести с собой внедрение технологий искусственного интеллекта, и подумать над тем, как мы можем избежать или решить их.
Несколько основных проблем мы уже обсудили в других главах:
• ИИ и рынок труда,
• ИИ и одиночество,
• ИИ и этика,
• ИИ и политическая пропаганда,
• ИИ и геополитическое неравенство,
• ИИ и страх,
• ИИ и разработка вооружений.
Я бы также рекомендовал вам подумать над мудрой рекомендацией Герда Леонгарда: Осваивайте технологию, а не становитесь ей.
Именно это и нужно делать: изучать новые способы применения ИИ и других технологий в своей жизни и работе, но в то же время даже более важным является работа над собой, концентрация на том, чтобы стать лучше, сильнее и здоровее как человек.
Также важно не уходить в крайности: не избегать технологий искусственного интеллекта, но и не зависеть от них слишком сильно. Как и со всем, что окружает нас в нашей жизни, ключевым фактором является умеренное использование. Позвольте ИИ помочь вам облегчить вашу жизнь, но не позволяйте ему становиться вашей жизнью. Не теряйте чувство важности признания человеческих достижений. Мы не должны переставать пытаться учиться, развиваться и улучшаться. Нам также нужно работать над теми качествами, которые могут улучшить человеческий опыт, такими как социальный и эмоциональный интеллект, творческие способности и общее благосостояние.
Помните, что вас будет окружать множество людей, которым, возможно, нужна помощь в определении сфер применения и преимуществ новых технологий. Делитесь своими знаниями!
И последнее: действуйте, и посмотрите, насколько далеко вы сможете зайти!
Об авторе
Лассе Рухиайнен – международный автор и главный докладчик по развивающимся технологиям, социальным сетям и видеомаркетингу. Он проводит свои семинары и дает мастер-классы в 16 странах мира и часто читает лекции в нескольких университетах и бизнес-школах в качестве приглашенного преподавателя.
Лассе является автором четырех бестселлеров. Все они доступны на Amazon.com. Также они были отмечены несколькими медиаизданиями, включая ВВС и Business Insider.
Лассе имеет обширный опыт в онлайн-образовании. Он обучал тысячи студентов и специалистов по всему миру на трех языках (английском, испанском и финском).
Для получения дополнительной информации о работе Лассе и оформления подписки на его публикации, перейдите по ссылке: www.lasserouhiainen.com
Правообладателям!
Это произведение, предположительно, находится в статусе 'public domain'. Если это не так и размещение материала нарушает чьи-либо права, то сообщите нам об этом.