Электронная библиотека » Тим О’Рейли » » онлайн чтение - страница 4


  • Текст добавлен: 27 декабря 2020, 14:34


Автор книги: Тим О’Рейли


Жанр: О бизнесе популярно, Бизнес-Книги


Возрастные ограничения: +12

сообщить о неприемлемом содержимом

Текущая страница: 4 (всего у книги 37 страниц) [доступный отрывок для чтения: 11 страниц]

Шрифт:
- 100% +
Глава 2. На пути к глобальному мозгу

Моя сосредоточенность скорее на Интернете, чем на Linux, в конце концов увела меня от других сторонников открытого исходного кода в совершенно иных направлениях. Они хотели спорить, какая лицензия для открытого исходного кода лучше. Я считал, что лицензии не имеют такого большого значения, которое все им придавали.

Я был очарован масштабной инфраструктурой следующего поколения и бизнес-процессами, которые создавала компания Google. Остальные тоже интересовались этими вещами, но они думали, что немногим компаниям понадобится такая структура, как у Google, или такие методы. Они ошибались.

Это мой следующий урок. Если будущее уже наступило, просто оно еще неравномерно распределено, найдите признаки этого будущего, изучите их и спросите себя, как все изменится, если они станут новой нормой. Что произойдет, если эта тенденция сохранится?

В течение последующих нескольких лет я доработал свою аргументацию, в конечном итоге написав речь под названием «Смена парадигмы открытого исходного кода», которую произнес сотни раз для бизнес– и технической аудитории. Я всегда начинал речь с вопроса: «Сколько людей из вас использует Linux?» Иногда лишь немногие поднимали руки, иногда многие. Но когда я задавал свой следующий вопрос: «Сколько людей из вас используют Google?», практически все в комнате поднимали руки. «Вы только что продемонстрировали мне, – указывал я, – что вы все еще представляете себе программное обеспечение, которое вы используете как нечто, установленное на вашем локальном компьютере. Google построен на операционной системе Linux. Вы все пользуетесь ею».

То, как вы смотрите на мир, ограничивает то, что вы видите.

Компания Microsoft определила парадигму, в которой конкурентные преимущества и контроль пользователей были возможны благодаря патентованному программному обеспечению, установленному на настольный компьютер. Большинство сторонников свободного и открытого кода приняли эту карту мира и рассчитывали, что Linux будет конкурировать с Microsoft Windows как операционная система для настольных компьютеров и ноутбуков. Я, напротив, утверждал, что открытый исходный код становится «Intel Inside» следующего поколения компьютерных приложений. Я думал о том, в чем будет особенность работы следующего поколения программного обеспечения и как это изменит баланс сил в компьютерной индустрии намного сильнее, чем любая конкуренция Linux на рынке настольных компьютеров.

Поскольку разработчики открытого исходного кода раздавали свое программное обеспечение бесплатно, многие усматривали в этом только обесценивание чего-то, что когда-то имело огромное значение. Так, основатель компании Red Hat Боб Янг сказал мне: «Моя цель – уменьшить размер рынка операционной системы». (Впрочем, Red Hat собиралась завладеть большей частью этого уменьшенного рынка.) Сторонники сохранения статус-кво, такие как вице-президент Microsoft Джим Аллчайн, утверждали, что «открытый исходный код уничтожает интеллектуальную собственность», и рисовали мрачную картину: великая индустрия будет разрушена, а на ее место не придет ничего.

Коммерциализация операционных систем, баз данных, веб-серверов и браузеров и сопутствующего программного обеспечения действительно угрожала основному бизнесу Microsoft. Но это же создавало возможность для появления «убийственных приложений» (англ. killer app) эпохи Интернета. Стоит вспомнить эту историю, оценивая последствия появления услуг по требованию, таких как Uber, беспилотных автомобилей и искусственного интеллекта.

Я обнаружил, что Клейтон Кристенсен, автор книг «Дилемма инноватора» (Альпина Паблишер, 2018. – Прим. ред.) и «Решение проблемы инноваций в бизнесе» (Альпина Паблишер, 2018. – Прим. ред.), разработал концепцию, которая объясняла мои наблюдения. В статье 2004 года в журнале «Harvard Business Review» он сформулировал «закон сохранения привлекательности прибыли» следующим образом:


«Когда на одном этапе производственной цепи привлекательность прибыли исчезает, потому что продукт становится модульным и ориентированным на широкий спрос, на следующем этапе обычно появляется возможность получить привлекательность прибыли с помощью запатентованных продуктов».


Я видел, как работает этот закон сохранения привлекательности прибыли при смене парадигмы, которой требовало открытое программное обеспечение. Так же как коммерциализация основного дизайна персонального компьютера IBM открыла новые возможности для привлечения огромной прибыли в программном обеспечении, открытое программное обеспечение, лежащее в основе Интернета, принесло огромную прибыль в новом секторе патентованных приложений.

Google и Amazon бросили серьезный вызов традиционному пониманию свободного и открытого программного обеспечения. Здесь использовались приложения, построенные на Linux, но они были ревностно запатентованы. Более того, даже при использовании и изменении программного обеспечения, распространяемого под наиболее жесткой из лицензий свободного программного обеспечения, GPL (Универсальной общедоступной лицензией GNU), эти сайты не были ограничены каким-либо из ее положений, каждое из которых было изложено в терминах старой парадигмы. Защита GPL инициировалась в случае распространения программного обеспечения, но веб-приложения не распространяют никакого программного обеспечения: они просто демонстрируются на мировой арене Интернета, распространяемые скорее как услуга, чем как запакованное прикладное программное обеспечение.

Но еще более важно то, что, даже если бы эти сайты предоставили свой исходный код, пользователям было бы нелегко создать полную копию рабочего приложения. Я говорил сторонникам свободного программного обеспечения, таким как Ричард Столлман, что, даже если бы они взяли все программное обеспечение, которое Amazon или Google разработали на Linux, у них не получился бы Amazon или Google. Эти сайты не просто состояли из набора программ. Они представляли собой колоссальную совокупность данных, людей и бизнес-процессов, используемых для сбора, управления и создания текущих услуг с использованием этих данных.

Пока я изучал эту линию аргументации, тектонические процессы технологии создавали новые континенты, которые нужно было отразить на карте. В июне 1999 года сайт Napster для обмена файлами в Интернете перевернул индустрию с ног на голову, позволив пользователям бесплатно делиться друг с другом музыкальными файлами по Сети. Самым интересным с технической точки зрения было то, что Napster, а вскоре и другие сети обмена файлами, такие как FreeNet и Gnutella (а чуть позже BitTorrent), не хранили все файлы в одном месте, как сайты с онлайн-музыкой того времени. Они хранили их на жестких дисках миллионов пользователей по всему Интернету. Энди Орам, один из редакторов моего издательства, особо подчеркнул, что влияние архитектуры этих программ было важнее, чем их бизнес-влияние. (Эта же история повторилась пятнадцать лет спустя с биткойном и блокчейном.)

Это была своего рода децентрализация, которая выходила даже за рамки Всемирной паутины. Становилось понятным, что будущее требует еще более радикального переосмысления возможностей Интернета стать платформой для приложений и контента следующего поколения.

И это будущее не ограничивалось обменом файлами. Суть проекта SETI@home, запущенного в середине 1999 года, заключалась в том, чтобы задействовать неиспользуемую вычислительную мощность домашних ПК интернет-пользователей для анализа сигналов радиотелескопа в поисках признаков внеземного разума. Вычисление, а не только файлы и данные, можно распределить на тысячи компьютеров. И разработчики все чаще осознавали, что мощные приложения в Интернете можно рассматривать как компоненты, востребованные другими программами, которые мы теперь называем веб-сервисами. API (от англ. application programming interface – «интерфейс прикладного программирования») для поставщиков операционных систем, таких как Microsoft, уже не был просто способом предоставить разработчикам доступ к своим системным службам, а стал своего рода дверью, которую интернет-сайт может оставить открытой для других, чтобы они могли войти и безопасно получить данные.

Джон Уделл, наблюдатель-провидец технологического прогресса, даже выступил с докладом на эту тему на первой конференции, посвященной Perl, в 1997 году. Он отметил, что, когда веб-сайт использует внутреннюю базу данных для извлечения информации, он кодирует нужную информацию в формате URL (сетевого унифицированного указателя ресурсов) и что этот URL-адрес может генерироваться программой, по существу превращая любой веб-сайт в компонент, нуждающийся в программировании.

Программисты с первых дней использовали эти скрытые зацепки для удаленного управления веб-сайтами. «Автоматическое сканирование» с помощью программы для посещения и копирования миллионов веб-сайтов является важной частью поисковых систем, но люди теперь задумываются о том, как систематизировать процесс обращения к удаленным веб-сайтам для выполнения более конкретных задач.

Все это привело к появлению совершенно новой парадигмы в области вычислений. Интернет заменил персональный компьютер в качестве платформы для нового поколения приложений. Всемирная паутина была самой мощной силой этой платформы, но обмен файлами, распределенные вычисления и системы обмена сообщениями в Интернете, такие как ICQ, продемонстрировали, что впереди нас ждет история покруче.

Поэтому в сентябре 2000 года я снова собрал группу людей, которые, как я думал, должны были находиться в одной комнате, чтобы выяснить, что между ними общего.

В начале следующего года, опираясь на идеи, полученные на этом «пиринговом»[3]3
  От peer-to-peer, P2P – оверлейная компьютерная сеть, основанная на равноправии участников. (Прим. ред.)


[Закрыть]
саммите, мы организовали Конференцию пиринговых и веб-сервисов О’Райли. К 2002 году мы переименовали ее в Конференцию новых технологий О’Райли и обозначили ее тему как «Создание сетевой операционной системы».

Я до сих пор помню недоумение, с которым некоторые люди реагировали на мой выбор ключевых слов для мероприятия: один касался компании Napster и сетевого обмена файлами, другой – распределенных вычислений, а третий – веб-сервисов. «Как эти вещи связаны между собой?» – спрашивали люди. Мне было ясно, что все эти понятия являются аспектами эволюции Интернета во всеобщую платформу для новых видов приложений.

Помните, что правильные кусочки пазла на столе – это первый шаг к их объединению в связную картину.

На этой первой Конференции пиринговых и веб-сервисов О’Райли в 2001 году Клей Ширки подвел итоги перехода к сетевым вычислениям, рассказав незабываемую апокрифическую историю о Томасе Уотсоне-старшем, который был главой IBM во время появления центральной ЭВМ. Уотсон якобы сказал, что он не видит необходимости в существовании более чем пяти компьютеров во всем мире. Клей отметил: «Теперь мы знаем, что Томас Уотсон ошибался». Мы все рассмеялись, подумав о сотнях миллионов проданных персональных компьютеров. Но тогда Клей застал нас врасплох такой концовкой: «Он преувеличил это количество на четыре».

Клей Ширки был прав: для всех практических целей теперь есть только один компьютер. Google теперь работает более чем на миллионе серверов, используя службы, распределенные по этим серверам, чтобы мгновенно доставлять документы и услуги, доступные почти с сотни миллионов других независимых веб-серверов, пользователям, работающим на миллиардах смартфонов и ПК. Это все – одно неделимое целое. Джон Гейдж, научный руководитель компании Sun Microsystems, произнес пророческую фразу в 1985 году, когда провозгласил лозунг Sun: «Сеть – это компьютер».

Web 2.0

Последняя часть пазла сложилась в 2003 году, и, как и в случае с открытым исходным кодом, это был термин, Web 2.0, запущенный кем-то другим.

Дейл Дагерти, один из моих самых первых сотрудников, сыгравший ключевую роль в преобразовании компании O’Reilly & Associates (позже переименованной в O’Reilly Media) из консалтинговой компании по написанию технических текстов в компанию, издающую книги о технологиях в конце 1980-х годов, которого я теперь считаю соучредителем, продолжал изучение онлайн-изданий. Он создал наш первый проект электронной книги в 1987 году и, пытаясь разработать платформу для публикации электронных книг, которая была бы открыта и доступна всем издателям, обнаружил зарождающуюся Всемирную паутину.

Дейл привлек мое внимание к Сети, летом 1992 года познакомив меня с Тимом Бернерсом-Ли. Мы быстро убедились, что Сеть является действительно важной технологией, достойной, чтобы ее осветить в нашей готовящейся книге об Интернете, который как раз тогда открывался для коммерческого использования. Эд Крол, автор книги, еще мало знал о Сети, поэтому его редактор в O’Reilly Майк Лукидс написал главу, и мы добавили ее в книгу перед самой публикацией в октябре 1992 года.

Книга Эда «The Whole Internet User’s Guide and Catalog» была продана тиражом более миллиона экземпляров и была названа Публичной библиотекой Нью-Йорка одной из самых значимых книг XX века. Это была книга, которая представила Всемирную паутину миру. Когда мы издали ее осенью 1992 года, во всем мире насчитывалось около 200 веб-сайтов. За несколько лет появились миллионы.

Дейл продолжил создание «Global Network Navigator» (GNN), онлайн-журнала компании O’Reilly о людях и тенденциях в Интернете и каталога самых интересных сайтов. Это был первый веб-портал (запущенный за год до Yahoo!) и первый веб-сайт для размещения рекламы. Мы понимали, что Сеть растет очень быстро и мы не можем за ней угнаться как частная компания, но при этом не желали терять контроль над компанией O’Reilly, привлекая венчурный капитал. Поэтому в 1995 году мы продали GNN AOL, совершив первую контент-транзакцию, положившую начало раздуванию «пузыря» доткомов.

Даже после того, как в 2000 году этот «пузырь» лопнул, что привело рынки к обвалу, а инвесторов – в подавленное состоянии, мы по-прежнему были убеждены, что это все еще просто первые дни Интернета. В 2003 году на выездном совещании руководства компании O’Reilly Media мы определили нашу ключевую стратегическую цель как «возрождение энтузиазма в компьютерной индустрии». Дейл был тем, кто понимал, как это сделать. В процессе мозгового штурма с Крейгом Клайном, руководителем компании MediaLive International, организующей конференции и желающей сотрудничать с O’Reilly, Дейл придумал термин Web 2.0, имея в виду второе пришествие Всемирной паутины после провала. Я дал согласие на сотрудничество с MediaLive на следующем мероприятии, которое мы запустили через год под названием «Конференция Web 2.0», с Джоном Баттелом, автором и медиапредпринимателем, в роли принимающей стороны конференции и третьего партнера.

Как и в случае с моей работой над темой открытого исходного кода, мы начали создавать новую карту, пытаясь реализовать такие проекты, как модель рекламы Google с оплатой за клик, Wikipedia, системы обмена файлами, такие как Napster и BitTorrent, веб-сервисы и системы синдицированного контента, такие как ведение одностраничных блогов. И, как и в случае с открытым исходным кодом, вновь введенный термин идеально подошел духу времени и быстро прижился. Компании провели ребрендинг, став «компаниями Web 2.0». Они дистанцировались от старого прозвища «дотком», независимо от того, делали ли они действительно что-то новое или нет. Консультанты вышли из оцепенения, обещая помочь компаниям распространить новую парадигму.

К 2005 году я понял, что мне нужно дать немного больше поддержки этому термину, и написал эссе, в котором было обобщено все, что я узнал после «Смены парадигмы открытого исходного кода». Эссе называлось «Что такое Web 2.0?». И именно оно принесло мне репутацию футуриста, потому что в нем я определил очень много ключевых тенденций, которые объединились в рамках следующего поколения вычислений.

Я не предсказывал будущее. Я нарисовал карту настоящего, которая определила силы, формирующие технологический и бизнес-ландшафт.

Интернет как платформа

Первым принципиальным последствием Web 2.0 стало то, что Интернет заменил Windows как ведущую платформу, на которой строилось следующее поколение приложений. Сегодня это настолько очевидно, что остается только удивляться, как кто-то мог не замечать этого. Тем не менее компания Netscape, главный соперник Microsoft за доминирующее положение в конце 1990-х годов, потерпела неудачу, потому что она приняла правила игры компании Microsoft. Она руководствовалась старой картой. Компания, определяющая Web 2.0, Google, использовала новую карту.

Корпорация Netscape также использовала выражение «Интернет как платформа», но они применяли его в контексте старой программной парадигмы: их флагманским продуктом был веб-браузер, автономное приложение, и их стратегия заключалась в том, чтобы использовать свою доминирующую позицию на рынке браузеров для создания рынка дорогостоящих серверных продуктов. Подобно тому как «безлошадная карета» стала предшественницей автомобиля, расширив границы знакомого, Netscape продвигала «веб-топ» как замену настольному компьютеру и планировала популяризировать этот вебтоп с помощью поставщиков информации и апплетов, перенесенных на веб-топ поставщиками информации, которые закупали бы серверы у Netscape. Контроль над стандартами для отображения контента и приложений в браузере, как ожидалось, обеспечил бы Netscape таким же рыночным влиянием, каким пользовалась компания Microsoft на рынке ПК.

В конечном итоге как веб-браузеры, так и веб-серверы превратились в товары широкого потребления, а ценность переместилась в сферу комплекса услуг, предоставляемых посредством настоящей веб-платформы.

Google, напротив, начал свою жизнь как региональное веб-приложение, которое никогда не продавалось и не предоставлялось в пакете, а предлагалось как услуга, и клиенты прямо или косвенно платили за пользование этой услугой. Ни один из атрибутов старой индустрии программного обеспечения не присутствовал. Никаких запланированных выпусков программного обеспечения, только постоянное совершенствование. Никакого лицензирования или продажи, только использование. Никакого переноса на различные платформы, чтобы клиенты могли запускать программное обеспечение на своем собственном оборудовании, только массово растущая коллекция ПК с открытым исходным кодом, а также встроенные приложения и утилиты, которые никто никогда не видел за пределами компании.

«Служба Google не является сервером, – писал я, – хотя она предоставляется огромным количеством интернет-серверов, а не браузером; хотя пользователи работают с ней через браузер. Кроме того, ее флагманская служба поиска даже не содержит контент, который она помогает найти пользователям. Подобно телефонному звонку, который представляет собой не только сигнал в аппаратах на обоих концах вызова, но и коммуникацию в сети между ними, Google существует в пространстве между браузером и поисковым сервером и конечным сервером содержимого в качестве помощника или посредника между пользователем и его или ее онлайн-опытом».

Хотя Netscape и Google можно было назвать программными компаниями, Netscape принадлежала к тому же миру программного обеспечения, что и Lotus, Microsoft, Oracle, SAP и другие компании, которые возникли в 1980-х годах, когда приятелями Google были другие интернет-приложения, такие как eBay, Amazon, Napster, DoubleClick и Akamai.

Когда мы перешли из эпохи Web 2.0 в «мобильно-социальную» эпоху и позже в «Интернет вещей», тот же принцип продолжает оставаться верным. Приложения живут в самом Интернете – в пространстве между устройством и удаленными серверами, а не только в устройстве в руках пользователя. Эта идея выражалась в другом принципе, изложенном в документе, который я назвал «Программное обеспечение над уровнем отдельного устройства», использовав фразу, впервые произнесенную ведущим специалистом по открытому исходному коду компании Microsoft Дэвидом Штуцем в его открытом письме компании, когда он уходил из нее в 2003 году.

Мы продолжаем ощущать последствия действия этого принципа. Когда я впервые написал об идее программного обеспечения над уровнем отдельного устройства, я думал не просто о веб-приложениях, таких как Google, но и о гибридных приложениях, таких как iTunes, в которых использовались три уровня программного обеспечения – облачный музыкальный магазин, персональное приложение на базе ПК и карманное устройство (в то время iPod). Современные приложения еще сложнее. Вспомните Uber. Система (ее уже трудно назвать приложением) одновременно охватывает код, управляемый центрами обработки данных Uber, спутники GPS и реальную ситуацию на дорогах, а также приложения на смартфонах сотен тысяч водителей и миллионов пассажиров в сложном танце данных и устройств.

Использование коллективного разума

Еще одним отличием веб-приложений, которые пережили крах «пузыря» доткомов, было то, что все, кто остался в живых, так или иначе работали над использованием коллективного разума своих пользователей. Google – это накопитель сотен миллионов веб-сайтов, созданных людьми во всем мире, и он использует скрытые сигналы от своих пользователей и от людей, которые создают эти сайты, для их ранжирования и организации. Компания Amazon не только объединяет товары всемирной сети поставщиков, но и позволяет своим клиентам сопровождать пояснениями ее базу данных товаров при помощи обзоров и рейтингов, то есть использует коллективный разум для определения лучших товаров.

Изначально я разглядел эту модель, наблюдая, как Интернет стремительно ускорил глобальное сотрудничество вокруг проектов с открытым исходным кодом. И по мере того как будущее в очередной раз прокладывало себе дорогу, эта схема становилась все более рабочей. IPhone решительно захватил господствующее положение на заре мобильной эры, не только благодаря сенсорному интерфейсу и элегантному инновационному дизайну, но и благодаря тому, что App Store позволил всемирному сообществу разработчиков добавлять функции в виде приложений. Социальные медиаплатформы, такие как YouTube, Facebook, Twitter, Instagram и Snapchat, захватили свою власть за счет сбора материалов от миллиардов пользователей.

Когда люди спрашивали меня, что будет после Web 2.0, мне не приходилось долго думать над ответом «коллективные интеллектуальные приложения, работающие на данных, поступающих скорее от сенсоров, чем от людей, печатающих на клавиатуре». Определенно, все успехи в области распознавания речи и образов, в определении обстановки на дорогах в режиме реального времени, в области беспилотных автомобилей, зависят от огромного количества данных, собираемых с датчиков на подключенных устройствах.

Текущая гонка автономных транспортных средств – это гонка не только в сфере разработки новых алгоритмов, но и в сфере сбора все бо́льших объемов данных от водителей об обстановке на дорогах и все большей детализации карт мира, создаваемых миллионами невольных участников. Многие уже забыли, что в 2007 году Стэнфорд выиграл соревнования автомобилей-роботов DARPA Grand Challenge, пройдя семимильный маршрут за семь часов. А уже к 2011 году компания Google располагала информацией об обычных автомагистралях общей протяженностью более чем в миллион миль. Их «секретное оружие» – обычные автомобили, снимающие панорамы улиц Google Street View, управляемые водителями-людьми, использующими камеры, GPS и LIDAR (Light Identification Detection and Ranging – обнаружение, идентификация и определение дальности с помощью света) для сбора данных. Как однажды мне сказал директор исследовательской компании Google Питер Норвиг: «Для ИИ это сложная проблема, идентифицировать светофор на видеоизображении. Гораздо проще сказать, зеленый он или красный, когда вы уже знаете, что он там находится». (Годы спустя после этого высказывания Питера первая задача стала для ИИ легче, но идею вы поняли.)

Сегодня такие компании, как Tesla и Uber, претендуют на лидерство в сфере беспилотных автомобилей, потому как обладают большим парком автотранспортных средств – автомобилями, датчики которых используются не только для выполнения поставленной задачи, но и для формирования вклада в алгоритмические системы будущего. Но запомните: эти машины управляются людьми. Обработка данных, которые они фиксируют, станет следующим этапом в использовании коллективного разума миллиардов людей, оснащенных привычными инструментами.

Данные – это intel inside следующего поколения

Тезис о вкладе пользовательских данных в коллективный интеллект звучит как песня кумбая[4]4
  Песня в жанре спиричуэлс, впервые записана в 1920-е годы. (Прим. ред.)


[Закрыть]
. И в первые годы нового века многие люди, прославлявшие сайты, созданные пользователями, такие как Wikipedia или новые сетевые средства массовой информации, такие как блоги, считали идею утопической. Я доказывал, что эти данные окажутся ключом к обретению ведущего положения на рынке для таких компаний, как Google и Amazon. Как я заметил в то время в одном разговоре: «Использование коллективного разума» – это то, чем начинается революция Web 2.0; «Данные – это Intel Inside» – то, чем она заканчивается».

Intel была той компанией, которая вместе с Microsoft захватила монопольное положение на рынке персональных компьютеров, вследствие чего на каждом ПК красовалась наклейка INTEL INSIDE. Компания Intel добилась этого, став единственным поставщиком процессоров, мозга ПК. Microsoft добилась этого, контролируя доступ к своей операционной системе.

Программное обеспечение с открытым исходным кодом и открытые сетевые протоколы передачи данных изменили правила игры для Microsoft и Intel. Но моя карта сказала мне, что игра на этом не заканчивается. В соответствии с Законом сохранения привлекательной прибыльности Клейтона Кристенсена я знал: станет ценным что-то еще. Те самые данные. В частности, я считал, что накопление критической массы данных, предоставляемых пользователями, привело к самоусиливающимся сетевым эффектам.

Термин «сетевой эффект», как правило, относится к системам, которые приносят тем больше пользы, чем больше людей ими пользуются. Телефон сам по себе не особенно полезен, но, как только он появляется у достаточного количества людей, очень сложно не присоединиться к сети. Таким образом, конкуренция социальных сетей заключалась в привлечении как можно большей базы пользователей, поскольку захват цели осуществляется не через программное обеспечение, а через количество других людей, пользующихся одной и той же услугой.

Сетевые эффекты, которые я наблюдал относительно пользовательских данных, носили в большей степени косвенный характер и были обусловлены тем, каким образом компании учатся получать выгоду от пользователей своих систем. У Barnes & Noble были все те же продукты, что и у Amazon, но у Amazon было намного больше отзывов и комментариев пользователей. Люди заходили в эту сеть не только ради продуктов, но и ради информации, добавленной другими пользователями. Кроме того, в дополнение к превосходным алгоритмам Google и постоянным улучшениям продукта, поисковая система Google продолжает улучшаться еще и благодаря тому, что ее использует большое количество людей, а это значит, что Google может накапливать больше данных и, следовательно, учиться быстрее, чем конкуренты, оставляя их далеко позади.

Возвращаясь к вопросу о том, кто победит в отрасли беспилотных автомобилей: это будет не только тот, у кого окажется лучшее программное обеспечение, но и тот, у кого будет больше данных.

В 2016 году руководители Uber утверждали, что собранные с помощью их приложений для водителей и пассажиров данные о сотнях миллионов миль дадут им преимущество. Однако трудно поверить, что одни только данные из приложений для смартфонов будут соответствовать степени детализации, которую Google обеспечивает при помощи своих специально оборудованных автомобилей. Вот почему компания Uber считает, что беспилотные автомобили необходимо срочно включить в список ее услуг, даже если еще многие годы они будут функционировать в тандеме с водителями. У компании Tesla также есть подробная телеметрия, полученная от каждого транспортного средства, и это же касается автомобилей второго поколения с функциями самоуправления, которые включают подробные данные о камерах и радарах.

Большой вопрос для производителей автомобилей, не обладающих таким преимуществом, заключается в том, будут ли датчики, используемые для предотвращения несчастных случаев, или опция автоматической парковки достаточным для них инструментом для сбора необходимого количества данных, чтобы оставаться конкурентоспособными.

Конечно, многое зависит не только от того, сколько данных у вас есть, но и от того, насколько вы можете в них разобраться. Здесь Google, Tesla и Uber имеют большое преимущество перед традиционными автомобильными компаниями.

Конец эпохи выпуска новых версий программного обеспечения

В эпоху ПК мы привыкли думать о программном обеспечении как об артефакте. Компании должны были начать думать о программном обеспечении как об услуге. Это означало бы, что мы увидим совершенно новый подход к разработке программного обеспечения. Я не развивал эту идею так же полно, как три предыдущих, но даже в 2005 году было ясно, что то, что мы теперь называем итеративным, ориентированным на пользователей, основанным на данных развитием, станет новой нормой. Программное обеспечение, встроенное в то, что мы теперь называем облаком, постоянно обновляется.

Но оно не только обновляется во много раз быстрее, чем программное обеспечение для ПК. Сегодняшнее программное обеспечение разрабатывается, наблюдая за тем, что делают пользователи в режиме реального времени – с проведением A/B – тестирования функций на подгруппах пользователей, с определением того, что работает, а что не работает, информируя процесс разработки на постоянной основе. Таким образом, модель сотрудничества в разработке программного обеспечения с открытым исходным кодом «чем больше глаз, тем меньше неполадок» была доведена до логического завершения и полностью отделена от первоначальной модели лицензирования открытого программного обеспечения.

В конечном итоге я смог увидеть будущее более четко, потому что моя карта стала более адекватной, чем та, которая составлялась исходя из баталий между патентованным программным обеспечением и моделями лицензирования свободного программного обеспечения. Важно знать правильное направление. Но даже в этом случае потребовались годы, чтобы исследовать ландшафт настолько, чтобы заполнить все пробелы на карте.

Векторное мышление

Мы все знаем, что мир меняется, но слишком часто мы находим прибежище в уже знакомом и не можем расширить горизонты нашего мышления, чтобы посмотреть на текущие тенденции и спросить себя: «Что произойдет, если подобное продолжится?» Мы также не учитываем, что некоторые тенденции обладают гораздо более сильным потенциалом, чем другие, развиваются более быстрыми темпами. Или воспринимаем все как простое продолжение чего-то знакомого, нежели как нечто радикально новое.


Страницы книги >> Предыдущая | 1 2 3 4 5 6 7 8 9 10 11 | Следующая
  • 4.6 Оценок: 5

Правообладателям!

Данное произведение размещено по согласованию с ООО "ЛитРес" (20% исходного текста). Если размещение книги нарушает чьи-либо права, то сообщите об этом.

Читателям!

Оплатили, но не знаете что делать дальше?


Популярные книги за неделю


Рекомендации