Текст книги "Новые темные века"
Автор книги: Джеймс Брайдл
Жанр: Публицистика: прочее, Публицистика
Возрастные ограничения: +16
сообщить о неприемлемом содержимом
Текущая страница: 7 (всего у книги 20 страниц) [доступный отрывок для чтения: 7 страниц]
Но что, если проблема переполнения не ограничивается результатами научной деятельности, а касается, в том числе, исходной информации? Как опасался де Солла Прайс, наука не поменяла намеченной траектории и продолжила составлять все более обширные и сложные базы данных. Когда в 1990 году был запущен проект по расшифровке генома человека, он считался самым большим в истории по сбору данных. Теперь же резкое снижение стоимости секвенирования ДНК привело к тому, что ежегодно появляются огромные объемы новой информации. Эти данные все быстрее растут и все шире распространяются, так что их полноценное изучение не представляется возможным(22). Большой адронный коллайдер производит слишком много данных, чтобы их даже просто сохранить, следовательно, оставляется только избранная информация. После того, как был открыт бозон Хиггса, проект критиковали за то, что вся собранная за время проекта информация оказалась больше ни на что не годной(23). Любая наука становится наукой больших данных.
Понимание этого возвращает нас к закону Мура и закону Рума. Несмотря на развитие исследовательских институтов, научных журналов и академических должностей (а также на огромные деньги, вложенные в решение проблемы), на практике результаты только ухудшаются. В 1980-е и 90-е годы комбинаторная химия в 800 раз увеличила скорость, с которой возможно синтезировать молекулы, подобные молекулам лекарств. Секвенирование ДНК ускорилось в миллиард раз по сравнению с тем, как оно проходило изначально. Базы данных последовательностей белков за двадцать пять лет выросли в 300 раз. И хотя стоимость поиска новых лекарств упала, а финансирование исследований увеличивается, количество открытий в сфере фармацевтики падает в геометрической прогрессии.
Что могло обратить закон постоянного прогресса? На этот счет существует несколько гипотез. Первая, которую принято считать наименее значимой, гласит, что все легкодоступные открытия уже сделаны, все приметные и очевидные предметы уже изучены. Только дело не в этом. Есть новые вещества, которые появились в поле зрения науки всего несколько десятилетий назад и еще не были исследованы, а их изучение могло бы расширить область научных изысканий.
Существует проблема «лучше некуда» или «лучше, чем The Beatles»: хотя новые лекарства могли бы появиться, уже существующие справляются со своими задачами так хорошо, что фактически препятствуют дальнейшим исследованиям. Действительно, зачем создавать новую группу, если The Beatles все стоˊящее уже написали? Это вариация на тему легкодоступных открытий, но с одним важным отличием. Если первая гипотеза предполагает, что больше не осталось «легкой добычи», то согласно второй – каждая достигнутая цель снижает ценность еще недостигнутой цели. Для большинства отраслей дело обстоит наоборот: относительно дешевый процесс открытой добычи или сжигания угля делает более ценным то, что осталось в недрах, следовательно, привлекает финансирование на разработку залежей. В фармацевтике, напротив, попытка превзойти существующие дженерики только повышает стоимость клинических испытаний, и становится все труднее убедить врачей выписывать новые препараты, поскольку они уже знакомы со старыми.
Прочие проблемы разработки новых лекарств более системные и менее понятные. Некоторые считают, что бездумные траты фармацевтических компаний, опьяненных законом Мура, привели в действие закон Рума. Но большинство исследовательских институтов, как и в других отраслях, вложили свои средства в новейшие технологии и методы. Если это не решило проблему, значит, дело в чем-то еще.
Теория «осторожного регулятора», учитывающая более долгосрочную перспективу, видит проблему в том, что общество все менее терпимо к рискованным клиническим исходам. С 1950-х годов, времен золотого века открытия лекарств, количество нормативных актов, регулирующих испытания и выпуск препаратов, увеличилось, и небезосновательно. В прошлом клинические испытания часто сопровождались сильнейшими побочными эффектами, и когда на рынок поступали плохо протестированные лекарства, происходило ужасное. Лучшим – или, вернее, наихудшим – примером этого является препарат талидомид, разработанный в 1950-х годах для лечения тревожности и тошноты, но, как выяснилось, оказавший ужасающие последствия на младенцев, чьим матерям его прописывали для борьбы с утренним недомоганием. Впоследствии правила в отношении лекарств были ужесточены, что сделало клинические испытания более строгими и на самом деле улучшило результаты. Согласно принятой в США в 1962 году поправке в отношении эффективности лекарственных средств, необходимо было доказать, что новые лекарства не только безопасны, но и действенны, то есть оказывают заявленный производителем эффект, – ранее законом это не регламентировалось. Мало кто из нас поддержит возврат к более рискованным препаратам ради того, чтобы отменить закон Рума, особенно если в случае необходимости могут быть сделаны исключения, как произошло с некоторыми препаратами против ВИЧ в 1980-х годах.
Последнюю проблему, связанную с исследованиями лекарств, специалисты считают самой значительной, и она беспокоит нас больше всего. Фармакологи называют ее предвзятостью «фундаментальных исследований и грубой силы», но мы можем сформулировать ее как проблему автоматизации. Исторически сложилось так, что процесс открытия новых лекарств был прерогативой небольших коллективов исследователей, интенсивно занимавшихся ограниченными группами молекул. Когда интересное соединение идентифицировалось в природных материалах, из библиотек синтезированных химических веществ или в результате случайного открытия, его активный ингредиент выделялся и подвергался проверке на биологических клетках или организмах, чтобы оценить терапевтический эффект. В течение последних двадцати лет этот процесс был автоматизирован, в результате чего появилась технология, известная как скрининг высокой производительности. Высокопроизводительный скрининг – это переход открытия лекарств на промышленные рельсы за счет обширного автоматизированного поиска потенциальных реакций в огромных библиотеках соединений.
Современная лаборатория не похожа на то, как мы привыкли о ней думать: преимущественно мужчины в белых халатах возятся с пробирками пузырящейся жидкости. Чтобы получить более точную картину, нужно представить нечто среднее между современным автомобильным заводом со всеми его конвейерными лентами и манипуляторами и центром обработки данных с характерными стеллажами оборудования, вентиляторами и средствами мониторинга. Высокопроизводительный скрининг ставит во главу угла объем, а не глубину: обширные библиотеки химических соединений загружаются в машины и тестируются в различных сочетаниях. Этот процесс, при котором почти одновременно тестируются тысячи комбинаций, подрывает привычный уклад химических исследований и в то же время показывает почти непостижимые горизонты исследований и невозможность моделирования всех потенциальных взаимодействий.
Конечно, исследователи в курсе экономического давления из-за существующих открытий и более строгих законов, но именно в лабораториях эти запутанные проблемы накладываются на безудержное технологическое давление новых изобретений. Богатые фармацевтические компании не в силах сопротивляться непреодолимому желанию отдать решение своих проблем на откуп самым новым и эффективным технологиям. Как говорится в одном отчете, «автоматизация, систематизация и измерение процессов сработали в других отраслях. Зачем группе химиков и биологов неизвестно сколько времени ковыряться методом проб и ошибок, когда можно быстро и эффективно проверять миллионы вариантов, сравнивать с найденными генами, а затем просто повторять тот же производственный процесс для каждой следующей цели?»(24)
С другой стороны, именно в лаборатории ограничения такого подхода становятся совершенно очевидными. Высокопроизводительный скрининг ускорил, а не ослабил действие закона Рума. И некоторые начинают подозревать, что осуществляемый людьми хаотичный эмпирический поиск на самом деле может быть более, а не менее эффективным, чем машинные вычисления. Возможно, закон Рума упорядочил и подтвердил данными то, что многие ведущие ученые говорили уже в течение некоторого времени.
В 1974 году, выступая перед Комитетом по науке и астронавтике США, австрийский биохимик Эрвин Чаргафф посетовал: «Теперь, когда я прохожу по лаборатории… там все сидят перед одними и теми же высокоскоростными центрифугами или сцинтилляционными счетчиками, создавая одни и те же суперпозиционные графики. Почти не осталось места для немаловажной игры научного воображения»(25). Он также прояснил связь между чрезмерным доверием к автоматическим устройствам и вызвавшим его экономическим давлением: «Человек играющий уступил место серьезности корпоративных финансов». В результате, как сказал Чаргафф, «пелена однообразия заволокла ранее самую оживленную и самую привлекательную из всех научных профессий». Такие настроения вряд ли оригинальны, в целом, они повторяют критику технологического вмешательства в восприятие человека, будь то телевидение или видеоигры, с той разницей, что вычислительная фармакология создает эмпирический массив данных, свидетельствующих о ее собственной несостоятельности – машина на своем языке ведет хронику своей же неэффективности.
Чтобы ясно понять, чем это чревато, необходимо отказаться от однозначных оценок технологического прогресса и признать серые области мышления и понимания. Теперь, когда мы осознали, что полностью механический подход ошибочен, как нам снова вовлечь «человека играющего» в научные исследования? Один из ответов можно найти в другой лаборатории, в другом чудовищно сложном наборе экспериментального оборудования, которое собрано, чтобы раскрыть секреты ядерного синтеза.
Один из святых Граалей научных исследований, ядерный синтез, обещает почти безграничную чистую энергию, способную обеспечить функционирование целых городов и запустить космические ракеты всего на нескольких граммах топлива. Такую энергию заведомо трудно получить. Несмотря на то, что строительство экспериментальных реакторов началось в 1940-х годах и развитие этой научной области никогда не стояло на месте, ни один проект так и не произвел положительную чистую энергию, то есть не выработал большей мощности, чем требуется для запуска реакции термоядерного синтеза. Единственными рукотворными реакциями термоядерного синтеза, которым когда-либо удалось произвести больше энергии, чем было затрачено на их запуск, была серия термоядерных испытаний «Операция Касл» на Маршалловых островах в 1950-х годах. Последующее предложение генерировать энергию путем взрыва водородных бомб в пещерах глубоко под землей на юго-западе Америки было отвергнуто, когда выяснилось, что создание достаточного количества бомб для непрерывной генерации энергии обойдется слишком дорого.
Реакции термоядерного синтеза, происходящие в плазме перегретых газов, аналогичны реакциям, которые производят энергию и тяжелые элементы в звездах, поэтому энтузиасты термоядерного синтеза в шутку называют его «звездой в банке». При экстремальных температурах атомные ядра могут объединяться в более тяжелые; если используются правильные материалы, реакция будет экзотермической, то есть высвобождающей энергию, которую затем можно уловить и использовать для выработки электричества. Вот только сдерживать перегретую плазму чрезвычайно проблематично. Обычно в современных реакторах с помощью мощных магнитных полей или лазеров из плазмы формируется стабильное кольцо в форме пончика, так называемый тор плазмы, но необходимые для этого расчеты чрезвычайно сложны и взаимообусловлены. На стабильность плазмы влияет множество факторов: форма защитного сосуда; используемые материалы; состав топлива; время действия, сила и углы магнитов и лазеров; давление газов; электрическое напряжение. На момент написания этой книги максимальное время непрерывной работы термоядерного реактора составляло двадцать девять часов и было зафиксировано в токамаке, реакторе «пончикового» типа, в 2015 году, но для поддержания этой реакции требовалось огромное количество энергии. Другой многообещающий метод, известный как обращенная магнитная конфигурация, создает цилиндрическое плазменное поле и требует гораздо более низких энергетических затрат, однако его максимальное время работы составляло всего одиннадцать миллисекунд.
Это достижение принадлежит частной исследовательской компании Tri Alpha Energy из Калифорнии. Тороидальный реактор Tri Alpha запускает два «дымовых кольца» плазмы друг в друга со скоростью миллион километров в час, создавая сигарообразное поле до трех метров длиной и до сорока сантиметров в поперечнике(26). В этом реакторе в отличие от большинства установок используется бороводородная, а не дейтерий-тритиевая смесь. Хотя бор значительно сложнее воспламенить, его запасы на Земле не идут ни в какое сравнение со скудными запасами трития. В 2014 году Tri Alpha объявила, что добилась реакции продолжительностью до пяти миллисекунд, а в 2015 году заявила, что эти реакции могут быть устойчивыми.
Следующая задача – улучшить полученные результаты, что все труднее сделать по мере увеличения температуры и мощности. В начале каждого эксперимента можно установить несколько контрольных и входных параметров, таких как сила магнита и давление газа, но реакция может отклониться от заданных установок: по ходу эксперимента условия внутри корпуса реактора меняются, и требуется постоянная моментальная перенастройка. Это означает, что проблема точной настройки является одновременно нелинейной и сопряженной – колебание одной переменной может привести к неожиданным результатам или изменить влияние других входных данных. Нельзя решить проблему простым перебором переменных и изучением возможных изменений в случае колебания каждой из них. Скорее существует многомерный ландшафт возможных условий, который необходимо изучить путем непрерывного исследования.
На первый взгляд, ситуация похожа на идеальные условия для используемого в фармакологии метода перебора возможных вариантов: поочередно рассматривая переменные из огромного набора настроек и отмечая пики и спады результатов экспериментов, алгоритмы постепенно выстраивают сложную карту «местности».
К сожалению, простым перебором поставленную задачу не решить. Проблема усложняется тем фактом, что для плазмы не существует критериев качества, то есть нет простого показателя, который дает алгоритму понять, какие из результатов экспериментального тестирования считать лучшими. Чтобы ранжировать успешность разных вариантов, требуется более разностороннее человеческое суждение о процессе. Более того, масштабы неполадок, смоделированных в чашке Петри, ограниченны, а внутри термоядерного реактора, где мегаватты энергии перегревают сжатые газы до миллиардов градусов, остро стоит вопрос о возможном повреждении дорогостоящего и уникального оборудования, а границы безопасной эксплуатации до конца не изучены. Чтобы чрезмерно усердный алгоритм не предложил набор входных данных, которые могут вывести машину из строя, нужен контроль со стороны человека.
В ответ на эту проблему Tri Alpha и специалисты по машинному обучению из Google придумали так называемый «алгоритм оптометриста», или «алгоритм подбора очков»(27). Алгоритм действует по тому же принципу выбора «либо-либо», представленного пациенту во время проверки зрения: что лучше – вариант один или вариант два? В проведенных Tri Alpha экспериментах тысячи возможных настроек сократили до тридцати или около того мета-параметров, которые легче понять человеку. Во время экспериментальных прогонов каждые восемь минут происходит выстрел плазмы, после которого алгоритм немного меняет настройки и делает очередной запуск. Оператор-человек сравнивает новые результаты с результатами лучшего из предыдущих выстрелов и решает, какой из них взять за основу для последующих испытаний. Таким образом, алгоритм оптометриста сочетает в себе человеческие знания и интуицию со способностью ориентироваться в многомерном пространстве решений.
Алгоритм был впервые применен Tri Alpha в эксперименте по увеличению стабильности плазмы и, следовательно, продолжительности реакции. Исследуя пространство возможных параметров, оператор-человек заметил, что в некоторых экспериментах полная энергия плазмы на короткое время внезапно увеличивалась. Эта аномалия не учитывалась автоматизированным алгоритмом, но могла бы повысить устойчивость реакции, поэтому оператор изменил настройки, чем смог продлить эксперимент и увеличить его общую энергию. Введение незапланированных параметров заложило основу совершенно нового типа испытаний, при которых лучше учитывалась непредсказуемость научных исследований.
Проводя новые эксперименты, исследователи осознали двойные преимущества сочетания человеческого и машинного интеллекта: ученые преуспели в том, чтобы интуитивно выбирать лучшие из сложных результатов, а машина подталкивала их к исследованию большего диапазона возможных входных данных, даже самых экстремальных, которые люди обычно склонны игнорировать. В конечном счете подход оптометриста к случайной выборке в сочетании с интерпретацией, выполненной человеком, может быть применен в науке к широкому кругу проблем, которые требуют понимания и оптимизации сложных систем.
Алгоритм оптометриста особенно интересен тем, что пытается примирить непрозрачность операции по решению сложных вычислительных задач с человеческими потребностями и желаниями. С одной стороны, эта проблема настолько изощренно сложна, что человеческий разум не может ее полностью постичь, но при этом компьютер способен целостно ее воспринимать и совершать все необходимые операции. С другой стороны, очевидна необходимость привнести в решение сложных проблем сугубо человеческое осознание их многозначности, непредсказуемости и парадоксальности. Это осознание само по себе парадоксально, потому что слишком часто превышает нашу способность сознательно его выразить.
Исследователи Tri Alpha называют свой подход «попыткой оптимизировать скрытую полезную модель, которую специалисты-люди, возможно, не смогут выразить явно». Они имеют в виду, что в сложности их проблемного пространства есть определенный порядок, но этот порядок превышает человеческие способности описать его. Многомерные пространства конструкции термоядерного реактора – и закодированные представления нейронных сетей, которые мы исследуем в следующей главе, – несомненно, существуют, только их невозможно визуализировать. Хотя эти технологии открывают возможность эффективной работы с такими неописуемыми системами, они также требуют от нас признания того, что эти системы вообще существуют – и не только в области фармакологических и физических наук, но и в вопросах морали и справедливости. Требуется четкое осмысление того, что значит постоянно жить среди сложных и взаимосвязанных систем в состоянии непреодолимого сомнения и неуверенности.
Признание неописуемого, иными словами, признание того, что способность человеческого разума к концептуализации имеет пределы, – один из аспектов новой Темной эры. Но не все проблемы в науке можно преодолеть даже с помощью вычислений, какими бы привлекательными они ни были. По мере усложнения решений все более сложных проблем мы рискуем упустить из виду еще более серьезные системные проблемы. Подобно тому, как ускоряющийся по закону Мура прогресс пустил развитие вычислений по определенному пути, предполагающему конкретную архитектуру и оборудование, так и выбор этих инструментов четко обуславливает не только то, как мы подойдем к проблемам, с которыми нам предстоит столкнуться, но и то, что мы о них подумаем.
Наше представление о мире формируется с помощью имеющихся в нашем распоряжении инструментов. Как сказали в 1994 году историки науки Альберт ван Хелден и Томас Ханкинс: «Поскольку инструменты определяют, что можно сделать, они также в некоторой степени определяют, о чем можно думать»(28). Эти инструменты включают в себя всю социально-политическую основу, поддерживающую научные исследования: от государственного финансирования, академических институтов и журналистики до создания технологий и программного обеспечения, обеспечивающих беспрецедентную экономическую мощь и эксклюзивные знания Кремниевой долины и связанных с ней компаний. Имеет место и более глубокое когнитивное давление: вера в единственно верный, незыблемый ответ, который дают бесстрастные машины, независимо от участия человека. По мере того, как наука становится все более технологизированной, то же самое происходит во всех сферах человеческой мысли и деятельности, постепенно раскрывая степень неизвестного и недоступного человеку, даже если осознание своей ограниченности открывает перед нами новые возможности.
Тот же строгий научный метод, который в одном из своих проявлений приводит нас к закону Рума, согласно которому со временем результативность чего угодно снижается, в другом – помогает нам увидеть и решить эту самую проблему. Огромные объемы данных необходимы, чтобы увидеть проблемы, связанные с огромными объемами данных. Важно то, как мы реагируем на доказательства, лежащие прямо перед нами.
Внимание! Это не конец книги.
Если начало книги вам понравилось, то полную версию можно приобрести у нашего партнёра - распространителя легального контента. Поддержите автора!Правообладателям!
Данное произведение размещено по согласованию с ООО "ЛитРес" (20% исходного текста). Если размещение книги нарушает чьи-либо права, то сообщите об этом.Читателям!
Оплатили, но не знаете что делать дальше?