Вагнер серьезно отнесся к совету отца и применил его на практике во время кампании 2012 года: в сущности, все, что он сделал, – это понял, как тянуть лебедку более эффективным и продуктивным образом. Подход Вагнера основан на том, что кампании начинают меняться, особенно по мере того как данные в их распоряжении становятся все более дешевыми и гибкими. По его словам, согласно традиционной схеме, «с точки зрения психологии для организации было бы вполне нормально считать: если бы у меня был бюджет на определенную работу, то я бы направил часть этого бюджета на выяснение того, достаточно ли будет оставшейся части для выполнения этой работы. К сожалению, на практике это пока не стало нормой. Необходимо выделять некоторую долю бюджета на то, чтобы понять, способна ли остальная часть обеспечить требуемый результат. И это не просто повышение накладных расходов в обмен на обещание будущей отдачи. Много можно сделать уже сейчас, поскольку данные, доступные в наши дни и недоступные прежде, помогают измерить массу вещей»[15].
По словам еще одного архитектора кампаний Обамы Майкла Слейби, помимо возросшей доступности данных важную роль играют и открытия в мире компьютерных вычислений: «В том, что мы собираем множество данных, нет ничего нового. Поэтому, по сути, термин „большие данные“ описывает способность обрабатывать большие массивы информации в режиме, близком к реальному времени, что позволяет нам сделать с ними что-то интересное. Мы можем принимать различные решения, основываясь на стратегическом подходе, а не только на ретроспективном анализе. Обычно анализ больших массивов данных производится лишь постфактум, в форме долгосрочных исследований, а не в рамках текущего стратегического процесса»[16].
Представьте себе разницу между обработкой данных национальной переписи, занимающей несколько лет, и анализом в режиме реального времени, необходимым для четкого понимания того, кто будет голосовать за вашего кандидата на ближайших выборах. Скорость позволяет реализовать совершенно новые типы проектов. Именно в этом, по мнению Слейби, и состоит важность работы с «большими данными»: «По сути, „большие данные“ представляют собой результат коммодитизации вычислительных мощностей и более широкой доступности „облачных“ вычислений[17]. Теперь мы можем намного быстрее и более контролируемым образом обрабатывать большие массивы… дешевле становится и хранение информации… поэтому мы можем сначала набрать достаточно данных, а потом быстро их обработать и получить полезные результаты».
Можно сказать, что увеличение объемов собираемых данных и рост вычислительных мощностей дополняют друг друга. Чем больше у нас появляется данных, тем больше мы инвестируем в мощные компьютеры и хранилища для того, чтобы переработать эти данные и вытащить из них полезную для бизнеса информацию. Чем мощнее становятся компьютеры, тем проще нам становится собирать большие массивы информации и создавать более глубокие наборы данных.
«Большим данным» присуще определенное внутреннее противоречие. С одной стороны, они довольно интимны, а с другой – экспансивны. Они изучают небольшие факты и собирают на их основе информацию, которая, с одной стороны, является всеобъемлющей, а с другой – персонализированной[18]. Ученые часто сравнивают «большие данные» с микроскопом и телескопом – они позволяют нам изучать события с большей степенью детализации, чем раньше, и при этом видеть данные в более широком масштабе и находить связи, которые прежде были от нас слишком далеки, чтобы их увидеть.
В основном история влияния «больших данных» на наш мир была связана с вопросами логистики и убеждения. «Большие данные» отлично подходят для анализа цепочек поставок, избирательных кампаний и рекламы, поскольку в этих процессах имеется множество небольших, повторяющихся и подвергающихся количественной оценке действий, – именно на этом принципе основаны системы «рекомендаций»
На скольких языках вы говорите?