Страница 15 из 32
Intel была той компанией, которая вместе с Microsoft захватила монопольное положение на рынке персональных компьютеров, вследствие чего на каждом ПК красовалась наклейка INTEL INSIDE. Компания Intel добилась этого, став единственным поставщиком процессоров, мозга ПК. Microsoft добилась этого, контролируя доступ к своей операционной системе.
Программное обеспечение с открытым исходным кодом и открытые сетевые протоколы передачи данных изменили правила игры для Microsoft и Intel. Но моя карта сказала мне, что игра на этом не заканчивается. В соответствии с Законом сохранения привлекательной прибыльности Клейтона Кристенсена я знал: станет ценным что-то еще. Те самые данные. В частности, я считал, что накопление критической массы данных, предоставляемых пользователями, привело к самоусиливающимся сетевым эффектам.
Термин «сетевой эффект», как правило, относится к системам, которые приносят тем больше пользы, чем больше людей ими пользуются. Телефон сам по себе не особенно полезен, но, как только он появляется у достаточного количества людей, очень сложно не присоединиться к сети. Таким образом, конкуренция социальных сетей заключалась в привлечении как можно большей базы пользователей, поскольку захват цели осуществляется не через программное обеспечение, а через количество других людей, пользующихся одной и той же услугой.
Сетевые эффекты, которые я наблюдал относительно пользовательских данных, носили в большей степени косвенный характер и были обусловлены тем, каким образом компании учатся получать выгоду от пользователей своих систем. У Barnes & Noble были все те же продукты, что и у Amazon, но у Amazon было намного больше отзывов и комментариев пользователей. Люди заходили в эту сеть не только ради продуктов, но и ради информации, добавленной другими пользователями. Кроме того, в дополнение к превосходным алгоритмам Google и постоянным улучшениям продукта, поисковая система Google продолжает улучшаться еще и благодаря тому, что ее использует большое количество людей, а это значит, что Google может накапливать больше данных и, следовательно, учиться быстрее, чем конкуренты, оставляя их далеко позади.
Возвращаясь к вопросу о том, кто победит в отрасли беспилотных автомобилей: это будет не только тот, у кого окажется лучшее программное обеспечение, но и тот, у кого будет больше данных.
В 2016 году руководители Uber утверждали, что собранные с помощью их приложений для водителей и пассажиров данные о сотнях миллионов миль дадут им преимущество. Однако трудно поверить, что одни только данные из приложений для смартфонов будут соответствовать степени детализации, которую Google обеспечивает при помощи своих специально оборудованных автомобилей. Вот почему компания Uber считает, что беспилотные автомобили необходимо срочно включить в список ее услуг, даже если еще многие годы они будут функционировать в тандеме с водителями. У компании Tesla также есть подробная телеметрия, полученная от каждого транспортного средства, и это же касается автомобилей второго поколения с функциями самоуправления, которые включают подробные данные о камерах и радарах.
Большой вопрос для производителей автомобилей, не обладающих таким преимуществом, заключается в том, будут ли датчики, используемые для предотвращения несчастных случаев, или опция автоматической парковки достаточным для них инструментом для сбора необходимого количества данных, чтобы оставаться конкурентоспособными.
Конечно, многое зависит не только от того, сколько данных у вас есть, но и от того, насколько вы можете в них разобраться. Здесь Google, Tesla и Uber имеют большое преимущество перед традиционными автомобильными компаниями.
В эпоху ПК мы привыкли думать о программном обеспечении как об артефакте. Компании должны были начать думать о программном обеспечении как об услуге. Это означало бы, что мы увидим совершенно новый подход к разработке программного обеспечения. Я не развивал эту идею так же полно, как три предыдущих, но даже в 2005 году было ясно, что то, что мы теперь называем итеративным, ориентированным на пользователей, основанным на данных развитием, станет новой нормой. Программное обеспечение, встроенное в то, что мы теперь называем облаком, постоянно обновляется.
Но оно не только обновляется во много раз быстрее, чем программное обеспечение для ПК. Сегодняшнее программное обеспечение разрабатывается, наблюдая за тем, что делают пользователи в режиме реального времени – с проведением A/B – тестирования функций на подгруппах пользователей, с определением того, что работает, а что не работает, информируя процесс разработки на постоянной основе. Таким образом, модель сотрудничества в разработке программного обеспечения с открытым исходным кодом «чем больше глаз, тем меньше неполадок» была доведена до логического завершения и полностью отделена от первоначальной модели лицензирования открытого программного обеспечения.
В конечном итоге я смог увидеть будущее более четко, потому что моя карта стала более адекватной, чем та, которая составлялась исходя из баталий между патентованным программным обеспечением и моделями лицензирования свободного программного обеспечения. Важно знать правильное направление. Но даже в этом случае потребовались годы, чтобы исследовать ландшафт настолько, чтобы заполнить все пробелы на карте.
Мы все знаем, что мир меняется, но слишком часто мы находим прибежище в уже знакомом и не можем расширить горизонты нашего мышления, чтобы посмотреть на текущие тенденции и спросить себя: «Что произойдет, если подобное продолжится?» Мы также не учитываем, что некоторые тенденции обладают гораздо более сильным потенциалом, чем другие, развиваются более быстрыми темпами. Или воспринимаем все как простое продолжение чего-то знакомого, нежели как нечто радикально новое.
Путь, который я преодолел с того момента, как заметил эти тенденции, до того, как предсказал будущее, начался с осознания того факта, что описание свободного программного обеспечения упускало из вида программное обеспечение из Интернета. То, что я совместил это наблюдение с моими знаниями о ранней истории ПК и становлении компании Microsoft, а также размышлениями о потенциале возможностей Интернета, является примером того, что я называю «векторное мышление».
Вектор определяется в математике как объект, который может быть полностью описан только совокупностью двух обязательных факторов – длиной и направлением. Некоторые из наиболее известных законов, упоминавшихся в компьютерной индустрии, по сути являются описанием векторов.
Закон Мура, впервые сформулированный соучредителем Intel Гордоном Муром в 1965 году, гласил, что количество транзисторов на интегральной схеме ежегодно увеличивается примерно вдвое и, по всей вероятности, эта тенденция сохранится в обозримом будущем. В 1975 году Мур пересмотрел свой прогноз, чтобы предсказать удвоение количества транзисторов каждые два года. Представитель Intel Дэвид Хаус предположил, что фактическое увеличение производительности ближе к удвоению каждые восемнадцать месяцев из-за увеличения скорости процессора, а также из-за увеличения емкости чипов, и главным образом именно этой версии придерживались на протяжении многих десятилетий.
Одно из моих любимых популярных определений закона Мура родилось во время беседы с Ридом Хоффманом, основателем и председателем LinkedIn, и сенатором Шелдоном Уайтхаусом (от штата Род-Айленд) за ужином в Сан-Франциско семь или восемь лет назад. «Мы должны начать рассматривать закон Мура применительно к здравоохранению», – сказал я. «Что такое закон Мура?» – спросил сенатор. «Это просто, сенатор, – вмешался Рид. – В Вашингтоне вы полагаете, что с каждым годом вещи стоят все дороже, а делают их все меньше. В Кремниевой долине все ждут, что с каждым годом наши товары будут стоить меньше, а делать их будут все больше».