Читать книгу "Цифровая трансформация. Как выжить и преуспеть в новую эпоху"
Автор книги: Томас Сибел
Жанр: Управление и подбор персонала, Бизнес-Книги
Возрастные ограничения: 16+
сообщить о неприемлемом содержимом
Модели облачных сервисов
Всё как услуга (XaaS): современные провайдеры облачных технологий предоставляют организациям доступ к ряду ресурсов по принципу «как услуга», начиная от инфраструктуры и заканчивая программным обеспечением.

Рисунок 3.2
Сервисы SaaS – это полностью готовые приложения с доступом через интернет. SaaS-провайдер управляет всем приложением, включая инфраструктуру, средства безопасности, операционную среду и обновления. Сервисы SaaS освобождают клиентов от необходимости приобретать аппаратное обеспечение или устанавливать, управлять и обновлять ПО. Обычно они позволяют клиенту настроить различные параметры приложения (например, изменить состав полей данных, бизнес-процессы и права пользователей) в зависимости от потребностей.
Мультиоблако и гибридное облако
Сегодня IT-директора признают важность работы с разными облачными сервисами. Это позволяет снизить зависимость от единственного провайдера (так называемую зависимость от одного поставщика) и извлечь пользу из сервисов различных публичных облаков. Мультиоблако предполагает мультиоблачные вычислительные сервисы в одной гетерогенной архитектуре[101]101
Multicloud. Wikipedia, last updated February 18, 2019, https://en.wikipedia.org/wiki/Multicloud.
[Закрыть]. Например, приложение может использовать Microsoft Azure для хранения, AWS – для вычислений, IBM Watson – для машинного обучения и Google Cloud – для распознавания изображений.
Мультиоблако и гибридное облако
Чтобы избежать зависимости от поставщика и извлечь пользу из разнообразия публичных облачных провайдеров, организации применяют подход мультиоблака и гибридного облака.

Рисунок 3.3
Важно уметь управлять своими приложениями и данными в публичных и частных облаках (то есть в среде гибридного облака). Сверхчувствительные клиентские данные лучше хранить в частном облаке, а инфраструктура публичного облака в случае необходимости подойдет при взрывной нагрузке в качестве дополнительной мощности, позволяющей справиться с пиковыми нагрузками во время обработки транзакций или другой аналитической обработки.
Сложнее достичь облачной переносимости – способности легко менять различные облачные сервисы, которые использует приложение, на сервисы другого облачного провайдера. Например, заменить сервис по распознаванию изображений Google на тот же сервис Amazon. Контейнеры (технология, которая отделяет приложения от инфраструктуры) обеспечивают переносимость приложений между различными облаками, но не переносимость сервисов облачных провайдеров.
Big data
Вторая технология, поддерживающая цифровую трансформацию, – big data. Разумеется, данные всегда важны, а в эпоху цифровой трансформации особенно. Многим приложениям с ИИ требуются огромные объемы данных, чтобы обучить и совершенствовать алгоритмы машинного обучения их по мере роста объема данных.
Понятие big data впервые появилось в астрономии и геномике в начале 2000-х годов. В этих сферах возникали большие массивы данных. Невозможно было эффективно и недорого их обрабатывать, используя традиционную централизованную архитектуру, или вертикально масштабируемую архитектуру. Горизонтально масштабируемая архитектура для одновременной обработки данных использует тысячи или десятки тысяч процессоров. За последние десять лет появились технологии ПО для параллельной обработки big data. Наглядным примером служит парадигма распределенных вычислений MapReduce (изначально разработанная в Google в 2004 году) и Hadoop (созданная в Yahoo версия MapReduce, выпущенная в 2006 году). Сегодня система Hadoop MapReduce, включающая в себя многочисленные компоненты ПО, доступна как open source ПО от Apache Software Foundation.
Как мы уже знаем, проектам цифровой трансформации требуется возможность оперировать big data масштаба петабайтов. Фреймворк Apache Hadoop представляет собой множество мощных компонентов для управления big data и разработки приложений с использованием ИИ и IoT. Но организациям сложно превратить эти компоненты в работающие приложения. В главе 10 мы обсудим потребность в новом комплексе технологий. Я объясню, как этот комплекс поможет справиться со сложными требованиями цифровой трансформации. Но сначала давайте разберемся с big data. Объем не единственная их характеристика.
Большой информационный взрыв
Получение данных – всегда долгая и кропотливая работа. Организации собирали статистические данные, в основе которых лежали небольшие выборки (сотни или тысячи записей о транзакциях), и на их основе делали выводы обо всей картине в целом. Из-за малых объемов данных специалисты тратили много времени и сил на верификацию, чтобы исключить сведения, которые могли исказить результаты.
Облака дают неограниченные возможности для проведения вычислений и хранения информации. Появляется программное обеспечение, разработанное для параллельной обработки данных в огромных масштабах. Организациям больше не нужно ограничивать и отбирать исходные данные для анализа. Теперь выпадающие из общего ряда или нерелевантные данные грамотно встроены в анализ big data. В итоге более 20 миллиардов подключенных к интернету смартфонов, датчиков и прочих устройств генерируют постоянно растущий поток данных, ежегодные объемы которого измеряются в зеттабайтах (1 зеттабайт данных поместится на 250 миллиардах DVD-дисков). Сегодня компании могут делать выводы на основе доступных данных практически в режиме реального времени. Как мы вскоре увидим, возможность обрабатывать весь объем данных поспособствовала стремительному прогрессу в области ИИ.
Рост числа подключенных устройств в глобальных масштабах
Сегодня количество устройств, подключенных к интернету, в три раза превышает население планеты. Этот показатель ежегодно увеличивается на 10 %.

Рисунок 3.4
Возможность применять ИИ к обработке всего объема сырых данных привела к еще одной перемене. Больше нет необходимости в экспертах для построения гипотез, объясняющих причины того или иного события. Теперь алгоритмы ИИ способны обучаться самостоятельно и строить гипотезы о событиях на основе данных, полученных из этих систем.
Например, для определения причины просрочки платежей по ипотеке больше не нужен опытный специалист по кредитованию. Система может изучить причины и их относительную важность с высокой степенью достоверности благодаря анализу всех доступных данных по неплатежам других клиентов.
У этого явления далеко идущие последствия. Для выявления неисправностей двигателя больше не нужен опытный механик. Для выявления начальной стадии диабета у пациента больше не нужен опытный врач. Для определения оптимального места для бурения нефтяной скважины больше не нужен инженер-геолог. Все это компьютер может узнать из данных – гораздо быстрее и точнее.
Искусственный интеллект
Искусственный интеллект – это третья технология цифровой трансформации. В это понятие входят научные и технические данные, необходимые для создания разумных машин и компьютерных программ, способных самообучаться и решать проблемы вместо человеческого интеллекта.
В сферу ИИ входит анализ языковой информации и перевод, распознавание изображений и паттернов (например, при выявлении мошенничества, прогнозировании сбоев или определении риска хронического заболевания). Он оказывает поддержку при принятии решений (например, в беспилотных автомобилях и предиктивной аналитике). Количество и сложность приложений на основе ИИ стремительно растет. С его помощью решают крайне сложные задачи поставок, оптимизации запасов и повышения производительности активов. ИИ также решает проблемы управления парком транспортных средств (увеличение времени работы и доступности транспорта) и проблемы в сфере здравоохранения (прогнозирование риска возникновения лекарственной зависимости). Это лишь некоторые примеры. Мы подробно рассмотрим некоторые из них в следующих главах.
Машинное обучение
Под машинным обучением – очень широкой подгруппой ИИ – понимают класс алгоритмов, которые самообучаются на примере решения аналогичных задач, используя весь набор данных. Они не следуют предопределенным правилам, как в случае с традиционными алгоритмами. Алгоритм – это последовательность инструкций, которые компьютер выполняет, чтобы трансформировать входные данные в выходные. Простой пример: алгоритм для сортировки чисел по мере убывания. Входные данные – список чисел в любом порядке, выходные – точно отсортированный список. Инструкции для сортировки чисел определяются четким набором правил. Это пример традиционного алгоритма.
Специалисты в области вычислительных систем создавали алгоритмы с первых дней появления информационных технологий. Тем не менее традиционные подходы не позволяли разработать эффективные алгоритмы для решения разных проблем в сфере здравоохранения, производства, авиации, логистики, сбыта и финансов. В отличие от традиционных подходов алгоритмы машинного обучения математически анализируют любой вид данных (изображения, текст, звуки, временные ряды) и их взаимосвязь и делают выводы.
Машинное обучение и глубокое обучение стимулируют возрождение ИИ
ИИ, разработанный еще в 1950-е, стремительно развивался в последние годы. Он оказывает огромное влияние посредством методов машинного и глубокого обучения.

Рисунок 3.5
Пример машинного обучения – алгоритм, который анализирует изображение (входные данные) и классифицирует его как «самолет» или «не-самолет» (выходные данные). Сфера применения такого алгоритма – контроль воздушного сообщения и авиационной безопасности. Алгоритм самообучается на основе тысяч или миллионов изображений, маркированных как «самолет» или «не-самолет», после чего может проанализировать немаркированное изображение и с высокой степенью точности сделать вывод, самолет ли это. Еще один пример из сферы здравоохранения – алгоритм, который предсказывает вероятность сердечного приступа у человека. В его основе записи медицинских карточек и другие входные данные сотен или тысяч пациентов, которые пережили сердечный приступ, и миллионов человек, которые его избежали. Эти данные включают в себя возраст, пол, род занятий, место проживания, пищевые привычки, занятия спортом, этническую принадлежность, историю семьи и предыдущие заболевания.
Появление машинного обучения в сочетании с неограниченной вычислительной мощностью породило новый класс алгоритмов, решающих проблемы, которые когда-то считались неразрешимыми. Например, оценка риска поломки самолетного двигателя. Определив все важные входные данные (летные часы, условия полета, записи о техническом обслуживании, температуру двигателя, давление масла) и выбрав достаточно большое количество случаев поломки двигателя (то есть выходные данные), алгоритм не только предупредит о поломке, но и определит ее причины. Для этого не нужно быть специалистом по материаловедению или термодинамике. Достаточно лишь нужных данных в большом объеме.
Машинное обучение всегда требовало обширных знаний предметной области для определения необходимых составляющих модели. Развитие глубокого обучения, о котором речь пойдет ниже, снизило, а в некоторых случаях устранило это требование. Для создания модели требуется совместная работа опытных специалистов по data science и профильных экспертов. Они должны вычленить важные данные, а также виды данных или признаки (например, дифференциал температуры двигателя, летные часы), которые влияют на выходные данные (в данном случае – на поломку двигателя). Сложность связана с необходимостью выбора из сотен или тысяч потенциальных признаков. Алгоритм машинного обучения самообучается, перебирая тысячи (или миллионы) случаев в истории и определяя сравнительную важность (значимость) каждого признака. Это происходит до тех пор, пока алгоритм не выдаст самые точные выходные данные (о поломке двигателя)[102]102
Корректность показывает процент выявленных поломок двигателей за всю историю. Точность – это доля действительно произошедших поломок двигателя.
[Закрыть]. Результатом машинного обучения становится алгоритм, который на основании переданных входных данных на выходе дает точный результат[103]103
Процесс обучения – это задача оптимизации, для решения которой часто применяется алгоритм под названием «оперативный градиентный спуск». Он минимизирует ошибку между выходными данными и действительным значением тренировочных данных.
[Закрыть]. В данном примере алгоритм автоматически определяет вес фактора, а аналитик (человек) определяет сами факторы. Подходы глубокого обучения покажут, что алгоритм способен получать необходимые факторы и рассчитывать их веса напрямую из данных.
Процесс обучения интенсивно задействует ресурсы компьютера и требует времени, тогда как выводы делаются легко и быстро. Развитие вычислительной техники помогло улучшить производительность приложений машинного обучения. Например, графические процессоры параллельно обрабатывают несколько наборов данных, а логика работы FPGAs (программируемые интегральные логические схемы) не определяется при изготовлении, а задается посредством программирования. Сегодня лидеры в сфере облачных платформ предлагают ресурсы, которые оптимально подходят для выполнения вычислений на основе ИИ и в которых задействованы технические инновации.
Существует два вида машинного обучения – контролируемое и неконтролируемое. При контролируемом обучении алгоритм учится, используя маркированные данные, как в примере с двигателем самолета. Этот подход к обучению алгоритма требует огромных объемов исторических данных.
При ограниченном количестве произошедших событий применяется техника неконтролируемого обучения: обучающийся алгоритм ищет аномальные данные. Алгоритмы неконтролируемого обучения помогают найти важные паттерны или кластеры в большом наборе данных. Например, ретейлер может воспользоваться такими алгоритмами для группового анализа клиентских данных, чтобы определить новые сегменты потребителей в маркетинговых целях или для развития продуктов.
Глубокое обучение
Глубокое обучение – это подгруппа машинного обучения, обладающая большим потенциалом. Как уже говорилось ранее, наиболее традиционные виды машинного обучения требуют обширного определения факторов и, в свою очередь, серьезной экспертизы. Проблема заключается в том, что в этом случае в классификации и определении данных, а также в обучении модели не обойтись без специалистов по data science. Однако при глубоком обучении важные факторы определяются не людьми. Их выявляет алгоритм.
Это важное достижение, потому что определение факторов позволяет решить лишь некоторые проблемы ИИ. При решении многих задач специалисты по data science не могут определить важные факторы. Рассмотрим, например, проблему распознавания изображений. Представьте, что вам нужно создать алгоритм, распознающий машины. Это важное требование для беспилотных технологий. Вариантов изображений будет очень много с учетом всех возможных форм, размеров и цветов автомобилей, а также освещения, расстояния и перспективы. Специалисты по data science не смогли бы определить все важные признаки, необходимые для обучения алгоритма. Для таких проблем в глубоком обучении используется технология нейронных сетей, описанная ниже. За образец взяли сеть нейронов в мозге человека, хотя на самом деле у технологии мало с ней общего.
Глубокое обучение позволяет компьютерам создавать сложные концепции на основе простой иерархической структуры. Это можно представить в виде серии связанных между собой алгоритмов. На каждом уровне иерархии располагается алгоритм, который формирует промежуточную часть выходных данных, а они, в свою очередь, используют следующие уровни иерархии. В итоге последний уровень иерархии формирует полный набор выходных данных. Нейронная сеть тренируется распознавать автомобили, анализируя огромное количество изображений (с автомобилями и без них). Каждый уровень нейронной сети анализирует различные компоненты данных, определяя все больше абстрактных концепций, например граней, углов, очертаний, кругов и прямоугольников. В итоге появляется концепция машины, основанная на иерархической структуре[104]104
Как и машинное обучение, глубокое обучение использует оперативный градиентный спуск и другие алгоритмы оптимизации, чтобы присвоить значение каждому уровню и узлу сети.
[Закрыть]. После обучения нейронная сеть может по новой для себя фотографии определить с высокой степенью точности, изображена на ней машина или нет.
Как нейронная сеть распознает изображение автомобиля
Глубокое обучение с помощью многоуровневых нейронных сетей позволяет компьютерам создавать сложные концепции на основе простой иерархической структуры.

Рисунок 3.6
Как вы уже поняли, у глубокого обучения огромный потенциал. Приложения с ИИ этого уровня могут использоваться в бизнесе и государственном управлении. Нейронные сети, например, отвечают за машинное зрение, что важно для беспилотных автомобилей и производственных роботов. Сети распознают голоса на «умных» устройствах (например, Amazon Echo и Google Home), применяются для автоматизированного обслуживания клиентов, перевода на иностранные языки в режиме реального времени, в медицинской диагностике, прогнозировании и оптимизации производительности нефтяных скважин. «Изюминка» глубокого обучения в том, что оно подходит для любой задачи, начиная от прогнозирования поломки двигателя и заканчивая предотвращением мошенничества. При этом оно требует минимального вмешательства со стороны специалистов по data science в отличие от других методов машинного обучения. Это связано с низкой или вовсе отсутствующей потребностью в определении факторов.
ИИ – удивительная технология с безграничными возможностями. Она стремительно развивается. Этому способствует постоянное снижение затрат на вычисления и хранение данных, а также инновации в области аппаратного обеспечения. Процессы обработки данных становятся мощнее и дешевле. ИИ подходит для обработки объемных и разноплановых наборов данных, позволяет решать многочисленные проблемы и принимать решения в режиме реального времени.
Можно без преувеличения сказать, что ИИ заметно изменит нашу жизнь и работу. Он еще не охватил бизнес и политику, но забег уже начался. Дальновидные организации активно применяют ИИ, чтобы опередить конкурентов и добиться успеха. Цифровая трансформация выявит лидеров и безнадежно отстающих. Сегодня CEO и топ-менеджеры должны осознать, как ИИ повлияет на рынок и как извлечь пользу из новых возможностей.
IoT (интернет вещей)
Четвертая движущая сила цифровой трансформации – IoT: подключение к интернету любых устройств, способных принимать, обрабатывать и передавать данные. Это очень простая концепция, но она способна создать огромную экономическую ценность. Но это еще не все.
Сила и потенциал IoT в том, что вычисления становятся общедоступными и взаимосвязанными, микропроцессоры стабильно дешевеют и становятся энергоэффективнее, а сети работают все быстрее. Сегодня во многие объекты: автомобили, дроны, промышленную технику и даже здания – встроены недорогие суперкомпьютеры с ИИ размером с банковскую карту. В результате облачные вычисления успешно распространяются на сетевую периферию, то есть на устройства, с помощью которых данные производятся, потребляются, а теперь и анализируются.
Пример такого суперкомпьютера с ИИ – TX2 от NVIDIA. Он обрабатывает потоковое видео в режиме реального времени и использует функцию распознавания изображения на основе ИИ для идентификации людей и неодушевленных объектов. С помощью такого компьютера, например, можно усовершенствовать машинное зрение беспилотных роботов-доставщиков при движении по проезжей части и тротуарам. Суперкомпьютер TX2 размером 50 × 76 мм состоит из высокотехнологичных компонентов, в том числе мощного 256-ядерного процессора и 32 гигабайт оперативной памяти, которых хватит на запись одного часа видео. Энергопотребление – важный параметр для дронов – не превышает 8 Вт.
Такие успехи говорят о важной эволюции форм-факторов вычислительной техники (мы подробно поговорим о ней в главе 7). Автомобили, самолеты, коммерческие здания, заводы, дома и прочая инфраструктура, например энергосети, города, мосты, порты и туннели, все чаще оснащены мощными компьютерами и умными камерами, которые отслеживают происходящее, обрабатывают информацию и реагируют на нее. Фактически это вычислительные устройства с широкими возможностями ИИ.
Техническое название IoT – киберфизические системы – отражает взаимодействие его компонентов и контроль физической инфраструктуры компьютерами. Компьютеры, встроенные в физические устройства, непрерывно контролируют их работу и сами оперативно меняют настройки устройства (например, настройки промышленного контроля), взаимодействуя с облачными центрами обработки данных.
Пример такой системы – умная сеть в сфере энергетики. При возможности она использует выработанную энергию, а при необходимости черпает энергию из сети. Такие системы могут повысить эффективность глобальной энергетической инфраструктуры на 33–50 %. Для их внедрения понадобится ИИ в периферийных компьютерах, чтобы в режиме реального времени прогнозировать (или делать выводы) спрос на энергию и удовлетворять его при помощи самых экономичных источников – солнечного, аккумуляторного, ветряного или из электросети. Идея «транзакционной» сети, в которой отдельные узлы мгновенно принимают решения о покупке и продаже энергии, вот-вот станет реальностью.
Другие примеры местной обработки в сочетании с облачными вычислениями – Amazon Echo, беспилотные автомобили, дроны с камерами, используемые для наблюдения или в других коммерческих и промышленных целях (например, для оценки страхового ущерба), а также роботы в производственных системах. Скоро даже у рядовых пользователей появятся десятки или тысячи энергоэффективных портативных устройств и имплантов. Они будут отслеживать и контролировать биохимический анализ крови, артериальное давление, пульс, температуру и другие метаболические данные. Эти устройства смогут подключаться через интернет к облачным сервисам, например к медицинским диагностическим сервисам. Но и их собственные вычислительные возможности и возможности ИИ позволят собирать и анализировать данные и принимать решения в режиме реального времени.
IoT еше только развивается, но многочисленные приложения, например для диагностики оборудования, уже сегодня приносят огромную пользу компаниям и государственным структурам. Одна крупная европейская энергетическая компания с помощью такого приложения получает телеметрические данные от датчиков и умных счетчиков, встроенных в ее распределительную сеть протяженностью 1,2 миллиона километров. С помощью приложения специалисты прогнозируют возможные поломки оборудования, после чего проводят профилактические осмотры. Потенциальная экономическая ценность для компании превышает €600 миллионов в год.
Пример государственного клиента – Военно-воздушные силы США, которые используют технологии с ИИ для диагностики и обслуживания. Приложения прогнозируют потенциальную поломку авиационных систем и крупных узлов в разных моделях воздушных судов. Они позволяют проводить профилактическое обслуживание и сокращают объемы непредвиденного ремонта. Приложения получают данные с многочисленных датчиков на каждом самолете, анализируют оперативную информацию и предвидят поломку. Военные предполагают, что боеготовность воздушных судов благодаря приложениям вырастет на 40 %.
Это лишь некоторые примеры современных приложений IoT и ИИ. Они приносят значительную прибыль крупным компаниям, запустившим цифровую трансформацию. Мы обсудим другие примеры применения IoT в главе 7.
Для использования IoT и ИИ необходим новый стек технологий
Мы убедились, что каждая из четырех технологий, определяющих цифровую трансформацию, – эластичные облачные вычисления, big data, ИИ и IoT – открывает новые возможности.
В то же время компании сталкиваются с новыми проблемами и большими сложностями, особенно при создании единой платформы для всех технологий. Многие организации не могут внедрить приложения ИИ и IoT и потому никогда не продвинутся дальше экспериментов и изготовления прототипов.
Обычно эти организации пытаются разработать приложение, применяя многочисленные модули открытого ПО Apache Hadoop (и коммерческих дистрибутивов, например Cloudera и Hortonworks). Кроме того, они используют публичную облачную платформу (AWS, Microsoft Azure, IBM Cloud и Google Cloud). Это заведомо безуспешный путь. Компании осознают это спустя месяцы и даже годы впустую потраченного времени и усилий. Количество провальных проектов растет. Почему?
ПО Hadoop создавали 70 различных авторов, работавших по отдельности. Модули используют разные языки программирования и протоколы обмена данными с высокой сложностью перехода на другую модель разработки, отличаются абсолютно разными уровнями зрелости, стабильности и масштабируемости. Более того, разработчикам приходится сталкиваться с большим количеством и разнообразием технологий и фреймворков, таких как инфраструктурные сервисы, корпоративные приложения и интеграция, корпоративные данные, данные от датчиков устройств, языки программирования и библиотеки, необходимые для поддержки приложений. Наконец, многие компании разрабатывают и управляют сотнями приложений, требующих другой интеграции с компонентами Hadoop. В результате даже лучшие команды разработчиков заходят в тупик.
В действительности ни платформа Hadoop, ни публичное облако не станут полноценной средой для разработки и масштабирования приложений ИИ и IoT. Количество технических требований слишком велико, чтобы можно было создать полноценную корпоративную платформу следующего поколения, объединяющую четыре технологии. Можно выделить десять основных требований.
1. Сбор данных – платформа должна получать, интегрировать и нормализовать любые данные из многочисленных разнородных источников, включая внутренние и внешние системы, а также сети датчиков.
2. Мультиоблачные вычисления – основа для недорогих и гибких вычислений, а также для хранения данных с горизонтальным масштабированием в любых частных и публичных облаках.
3. Локальные вычисления – основа для локальной обработки данных с малой задержкой и прогнозирования на основе ИИ на периферийных устройствах. Это позволяет делать выводы или реагировать на входные данные в режиме реального времени (например, остановить беспилотный автомобиль, чтобы избежать столкновения с пешеходом).
4. PaaS-платформа как сервис предоставляет всеобъемлющий комплекс услуг для непрерывной обработки всего потока данных в режиме реального времени, поддержания безопасности и сохранности данных.
5. Единая концептуальная модель данных предоставляет согласованную с бизнесом объектную модель всех данных компании, которая позволяет упростить и ускорить разработку приложения.
6. Корпоративные микросервисы – это общий каталог программных компонентов и микросервисов, позволяющих разработчикам быстро создавать приложения, используя лучшие из них.
7. Защита корпоративных данных включает в себя надежное шифрование, аутентификацию пользователей и контроль авторизации.
8. Моделирование системы с использованием ИИ и динамических алгоритмов оптимизации поддерживает полный жизненный цикл приложения, включая разработку, тестирование и развертывание.
9. Открытая платформа поддерживает многочисленные языки программирования, стандартизированные интерфейсы (API), машинное обучение с открытым исходным кодом и библиотеки глубокого обучения, а также инструменты визуализации данных из сторонних источников.
10. Общая платформа для совместной разработки позволяет разработчикам ПО, специалистам по data science, аналитикам и другим членам команды работать в единой среде с общим набором инструментов. Это ускоряет разработку, развертывание и эксплуатацию приложения.
Архитектура, управляемая моделью
Описанные выше требования решаются лишь с помощью архитектуры, управляемой моделью. Она определяет программные системы, использующие модели, которые не зависят от платформы и от инфраструктурных сервисов, предоставляемых конкретным облачным провайдером – AWS, Azure, IBM или Google. Модели автоматически имплементируются на одно или несколько облаков с учетом платформенно-зависимой реализации. Это означает, что разработчику не нужно переживать о том, какие компоненты будет использовать приложение или на какой облачной платформе оно будет работать. В итоге приложения ИИ и IoT можно настроить и запустить гораздо быстрее, чем при альтернативных подходах. Даже если этим занимаются маленькие команды из трех-пяти разработчиков и специалистов по data science.
Архитектура, управляемая моделью, упрощает и ускоряет разработку и позволяет программистам реализовать бизнес-логику приложений ИИ и IoT при помощи довольно несложных действий, в отличие от традиционных подходов к разработке приложений.
Преимущества этого подхода впечатляют. Маленькие команды программистов и специалистов по data science могут разработать приложения ИИ и IoT всего за два с небольшим месяца. В масштабных проектах на разработку, тестирование и развертывание приложения обычно уходит 3–4 месяца. Мы вернемся к этой теме в главе 10.
Четыре движущие силы цифровой трансформации наконец слились воедино. Я думаю, вскоре мы увидим заметное ускорение проектов цифровой трансформации во многих отраслях по всему миру. Тем, кто хочет лучше разобраться в этих технологиях, будут интересны следующие главы. Если вы хотите узнать, как эти технологии используются сегодня в реальных проектах, перейдите к главе 9.
Внимание! Это не конец книги.
Если начало книги вам понравилось, то полную версию можно приобрести у нашего партнёра - распространителя легального контента. Поддержите автора!