Электронная библиотека » Джеймс Брайдл » » онлайн чтение - страница 6

Текст книги "Новые темные века"


  • Текст добавлен: 12 марта 2024, 17:45


Автор книги: Джеймс Брайдл


Жанр: Публицистика: прочее, Публицистика


Возрастные ограничения: +16

сообщить о неприемлемом содержимом

Текущая страница: 6 (всего у книги 20 страниц) [доступный отрывок для чтения: 6 страниц]

Шрифт:
- 100% +

Глава 4
Вычисления

Научные фантасты, чьи представления о современности часто отличаются от общепринятых, придумали специальный термин для одновременно сделанных открытий: «время парового двигателя». Уильям Гибсон так описывает этот феномен:


«В научно-фантастическом сообществе есть представление о так называемом времени парового двигателя, то есть времени, когда из-под пера двадцати или тридцати разных писателей внезапно выходят истории об одной и той же идее. Такой момент называют временем парового двигателя потому, что никто не знает, почему он был изобретен именно тогда, когда был изобретен. Птолемей уже описывал механизм работы парового двигателя, и ничто не мешало древним римлянам его создать. У них были игрушечные прототипы, а навыки обработки металла позволяли выполнить полноразмерную модель, но это так и не пришло им в голову»(1).


Паровой двигатель был реализован именно тогда, когда пришло его время, – это почти мистический, телеологический процесс, который происходит вне нашего привычного понимания исторического прогресса. Различные идеи и события – все, что должно было сойтись, чтобы некое изобретение стало возможным, настолько непостижимо, что открытие напоминает рождение новой звезды: магическое и ранее невообразимое. Однако история науки показывает, что любые изобретения одновременны и исходят от множества авторов. Первые трактаты о магнетизме появились независимо друг от друга в Греции и Индии примерно в 600 году до н. э., а в Китае – в Ⅰ веке. Доменная печь впервые появилась в Китае в Ⅰ веке, в Скандинавии – в XII веке, то есть существует вероятность преемственности, заимствования, хотя на северо-западе Танзании народ хайя владел технологией производства стали еще 2000 лет назад, задолго до того, как это знание проникло в Европу. В XVII веке Готфрид Лейбниц, Исаак Ньютон и многие другие независимо друг от друга сформулировали принципы математического анализа. В XVIII веке понятие кислорода практически одновременно появилось в работах Карла Вильгельма Шееле, Джозефа Пристли, Антуана Лавуазье и других, а в XIX веке Альфред Рассел Уоллес и Чарльз Дарвин почти одновременно выдвинули теорию эволюции. Такие истории создают обманчивое впечатление о героизме истории, рисуют картину, где гений-одиночка упорно трудится, чтобы явить миру уникальное открытие. История, по сути, является сетевой и вневременной: время парового двигателя – это многомерная структура, чувствительная к колебаниям времени, но незаметная.

Несмотря на такие глубинные закономерности, каждая история открытия – это маленькое чудо; вы узнаёте об авторах и их прошлом, видите смысл и логику в том, что ими сделано, понимаете, что все произошло так, как и должно было произойти. Сама история подсказывает, что именно эти люди должны были стоять за этим открытием.

Создатель Всемирной сети Тим Бернес-Ли выступил в 2010 году в Уэльсе с речью «Как случайно возникла всемирная Сеть»(2). Счастливая экзегеза компьютерных вычислений и в то же время история скромного героя. Партнеры Тима Бернеса-Ли – Конуэй Бернес-Ли и Мэри Ли Вудс – были специалистами по компьютерным технологиям, они познакомились в Манчестере в 1950-х годах, когда работали над «Mark I» – первым многофункциональным компьютером, доступным потребителям. Позднее Конуэй разработал технологию редактирования и сжатия текста, а Мэри – симуляцию маршрутов лондонских автобусов, которая позволила справиться с задержками на городском транспорте. Тим Бернес-Ли описывает свое детство как «мир, полный электронных вычислений», в самом начале своего пути он экспериментировал с магнитами и переключателями из гвоздей и проволоки. Его первым изобретением стало ружье на дистанционном управлении, работающее по принципу мышеловки. Он опробовал его на своих братьях и сестре. Тим подчеркивает, что родился почти одновременно с изобретением транзисторов, поэтому, когда пошел в среднюю школу, те только-только появились в продаже в магазинах электроники на Тоттенхем-Корт-роуд. Тогда он занялся конструированием простейших электронных схем для дверных звонков и домашних сигнализаций. Пока он осваивал паяльник, на рынок выпустили новые транзисторы, и стало возможным создавать более сложные электронные схемы. С появлением интегральных схем он смог переделать старые телевизоры в видеодисплеи. По сути, он собрал все необходимые компоненты для компьютера, хотя и нерабочего. К тому моменту он уже учился на физическом факультете, после настраивал цифровые принтеры и только затем устроился в ЦЕРН, где работал над идеей гипертекста, о котором до этого задумывались Вэнивар Буш, Дуглас Энгельбарт и другие. Поскольку он работал в непростой организации и разработчикам нужно было обмениваться взаимосвязанной информацией, он присоединил свое изобретение к протоколу передачи данных (TCP) и системе доменных имен, которые легли в основу Интернета и – вуаля! – Всемирная паутина появилась как нечто естественное и само собой разумеющееся, будто так и задумывалось.

Конечно, эту историю можно рассказать иначе, но она отзывается в нас, потому что мы видим в ней смысл; эта восходящая кривая изобретения – график, неизменно направленный вверх и вправо, – вкупе с личной историей обрастает бесчисленными связями и в нужный момент в нужном месте высекает искру открытия. Глобальная Сеть не случилась бы, не предшествуй ей история создания микропроцессоров и телекоммуникации, военная промышленность и коммерческие требования, много разных открытий и патентов, корпоративные исследовательские гранты и теоретические научные работы, да и сама семейная история Тима Бернеса-Ли. Вместе с тем глобальная Сеть возникла потому, что пришло ее время: на короткий момент культура и технология сошлись для изобретения того, что, как мы теперь понимаем, было предсказано еще со времен древних китайских энциклопедий и селекторов микрофильмов до историй Хорхе Луи Борхеса. Глобальная Сеть появилась потому, что была необходима, по крайней мере, в этой исторической линии.

Электронно-вычислительным технологиям особенно свойственны такие истории, оправдывающие и доказывающие их необходимость и неизбежность. Закон Мура – обязательное условие самоисполняющихся технологических пророчеств. Впервые об этой закономерности в 1965 году написал в журнале Electronics Гордон Мур, сооснователь компании Fairchild Semiconductor, а затем и Intel. Идея Мура заключалась в том, что транзисторы, которые, как справедливо отмечал Тим Бернес-Ли, появились всего-то десять лет назад, быстро уменьшались в размерах. Мур показал, что количество компонентов на интегральную схему ежегодно удваивалось, и предположил, что так будет продолжаться в течение следующего десятилетия. В свою очередь, результатом быстрого роста чистых вычислительных мощностей стали все более невероятные способы их применения: «Интегральные схемы приведут к таким чудесам, как домашние компьютеры – или, по крайней мере, терминалы, подключенные к центральному компьютеру, – автомобили с автоматическим управлением и личные мобильные устройства коммуникации. Электронные часы возможно создать уже сегодня, не хватает только дисплея»(3).


Десять лет спустя он немного пересмотрел свой прогноз, уточнив, что удвоение будет происходить каждые два года. По мнению некоторых, речь шла об удвоении каждые 18 месяцев, и, несмотря на многочисленные заявления, что вот-вот наступит неизбежный спад, с тех пор этот прогноз, в общем и целом, оставался верным. В 1971 году минимальный размер полупроводников – наименьший размер отдельного элемента – составлял 10 микрометров, или одну пятую диаметра человеческого волоса. К 1985 году размер сократился до 1 микрометра, а затем в 2000-х годах дошел до ста нанометров – таков диаметр вириона (полноценной вирусной частицы). В начале 2017 года появились смартфоны, в которых размер полупроводников составлял всего 10 нанометров. Раньше считалось, что предельный размер элементов полупроводников – 7 нанометров и дальнейшее уменьшение невозможно, поскольку иначе электроны смогут свободно проходить сквозь любую поверхность из-за квантового туннелирования. Сейчас ожидается, что этот эффект будет использован в транзисторах будущих поколений, чтобы производить чипы размером с атом. Некоторые же предсказывают, что в дальнейшем появятся биомашины, в которых ДНК будет сочетаться с искусственно созданными нанопротеинами.

Пока все действительно развивалось по возрастающей, вверх и вправо. Принцип миниатюризации и сопутствующий ему всплеск компьютерных мощностей – это все нарастающая волна, на гребне которой в 1960–1980-х годах пронесся Бернес-Ли, чтобы увлечь нас за собой во Всемирную паутину, связавшую весь мир. Но, несмотря на свое название, которое сам Мур не использовал двадцать лет, закон Мура – это вовсе не закон. Скорее это проекция в обоих смыслах этого слова. Это и экстраполяция данных, и иллюзия, появляющаяся в силу ограниченности нашего воображения. Заблуждение действует наподобие когнитивного искажения, питающего нашу любовь к героизации истории, только наоборот. Одно искажение заставляет нас прослеживать в событиях прошлого неизбежное наступление прогресса, из-за другого прогресс видится нам бесконечным. Проекции способны влиять как на будущее, так и на другие проекции, независимо от того, насколько они изначально обоснованны.

То, что поначалу было случайным наблюдением, стало лейтмотивом всего насыщенного ⅩⅩ века, приобретя ореол подлинного физического закона. Но в отличие от физических законов закон Мура весьма условен: он зависит не только от средств и методов производства, но также от открытий в естественных науках, от экономической и социальной систем, обеспечивающих инвестиции и рынки для создаваемых продуктов. Еще он зависит от пожеланий потребителей, влюбленных в маленькие блестящие гаджеты, которые год от года становятся все меньше и быстрее. Закон Мура не просто технический или экономический, он связан с либидо – это закон, основанный на влечении.

Начиная с 1960-х годов убыстряющееся развитие возможностей интегральных схем поменяло всю компьютерную отрасль: каждый год появлялись новые модели чипов, отчего развитие компьютеров стало тесно связано с развитием полупроводников. Производители «железа» и разработчики программного обеспечения не могли позволить себе создать собственную архитектуру и всецело зависели от нескольких поставщиков все более мощных и компактных чипов. Создатели чипов полностью определяли архитектуру устройств, которые получали конечные потребители. В результате возник рост в сфере программного обеспечения. Когда программное обеспечение обрело независимость от производителей «железа» и поставщиков чипов, стремительно выросли такие гиганты, как Microsoft, Cisco и Oracle, а затем произошли экономические, политические и идеологические изменения – значимым игроком на мировой арене стала Кремниевая долина. Еще одним следствием, по мнению многих специалистов из сферы компьютерных технологий, стал конец старой культуры программного обеспечения, при которой ценились уникальность, продуманность и продуктивность электронных программ. Если на ранних этапах разработчики должны были выжимать все возможное из ограниченных ресурсов, постоянно оптимизируя код и придумывая элегантные и экономичные решения сложных вычислительных проблем, то быстрое развитие компьютерных возможностей привело к тому, что каждые полтора года появлялось устройство в два раза мощнее предыдущего – оставалось только подождать. К чему рачительность и экономия ресурсов, если райское изобилие наступит уже в следующем торговом цикле? Вскоре за новым универсальным правилом закрепилось имя самого основателя Microsoft. Речь о так называемом законе Гейтса, согласно которому скорость программного обеспечения уменьшается вдвое каждые полтора года из-за нерационального и неэффективного кода и устаревшего функционала.

Вот действительное следствие закона Мура: по мере того как программы прочно обосновались в жизни общества, то же произошло с их постоянно повышающейся мощью, которая стала буквально олицетворять прогресс – изобильное будущее, для которого не требуется никакой подготовительной работы в настоящем. Закон вычислительных технологий превратился в экономический, а затем и в этический закон. Мур приветствовал расширенную интерпретацию названного его именем закона и даже в разговоре с представителями журнала The Economist отметил, что «закон Мура – исключение из закона Мёрфи. Все становится лучше и лучше»(4).

Сегодня, совсем по закону Мура, мы живем в мире повсеместной компьютеризации, среди облаков бесконечных вычислительных мощностей; этическое и когнитивное подтверждения закона Мура ощущаются сегодня в любом аспекте жизни. Однако, несмотря на все усилия и самые передовые открытия специалистов по квантовому туннелированию и нанобиологии, развитие технологий все больше упирается в философские вопросы. То, что на данный момент справедливо в исследованиях полупроводников, оказывается неприемлемым в другом случае: ни в научном, ни в естественном, ни в моральном отношении. И если мы решим критически взглянуть на то, что подсказывают нам технологии, мы увидим, в чем ошиблись. Если присмотреться к данным, ошибка станет очевидна, но сами данные слишком часто используются как аргумент.

В статье 2008 года в журнале Wired вышла статья Криса Андерсона «Конец теории», в которой утверждалось, что из-за огромного объема данных, доступных современным исследователям, традиционные научные процессы устарели(5). Больше не нужно строить модели мира и проверять их на ограниченной выборке. Сегодня вычислительные кластеры из многих компьютеров могут обработать сложные массивы всеобъемлющих данных и выдать истину: «Если данных достаточно, то цифры говорят сами за себя». В качестве примера Андерсон привел алгоритмы перевода Google, которые даже без знания глубинных лингвистических структур могли установить соответствия между языками, основываясь на массиве уже переведенных текстов. Андерсон расширил этот подход на геномику, неврологию и физику, в которых ученые все чаще обращаются к обширным вычислениям, чтобы разобраться в больших объемах собранной информации о комплексных системах. В статье говорилось, что в век больших данных «корреляции достаточно, можно больше не искать модели».

В этом и заключается магия больших данных. Теперь необязательно знать или понимать все о предмете изучения, чтобы докопаться до истины, достаточно положиться на цифровую информацию. В смысле ошибка больших данных – логичное следствие научного редукционизма, согласно которому сложные системы можно понять, если разбить их на составляющие и изучить каждый из компонентов в отдельности. И такой редукционистский подход был бы оправдан, если бы действительно поспевал за нашим опытом, но практика показывает, что простого анализа недостаточно.

В фармакологии особенно очевидно, насколько научному методу вредит полная зависимость исследований от больших объемов данных. За последние шестьдесят лет, несмотря на огромный рост фармакологической отрасли и сопутствующие ему огромные инвестиции в разработку лекарств, скорость выпуска новых медикаментов фактически упала, если учитывать денежные суммы, потраченные на исследования; более того, она снижалась последовательно и ощутимо. С 1950 года количество одобренных новых лекарств на миллиард долларов США, потраченных на исследования и разработки, сокращается вдвое каждые девять лет. Тенденция к снижению настолько очевидна, что исследователи придумали для нее термин: закон Рума, то есть закон Мура наоборот(6).

Закон Рума свидетельствует о растущем беспокойстве в научном сообществе по поводу того, что с исследованиями что-то не в порядке. Снижается не только количество новых открытий, но и полученные результаты становятся менее надежными из-за комбинации различных механизмов.

Одним из показателей научного прогресса является соотношение количества статей, публикуемых в научных журналах, и количества ретракций, то есть отзывов статей по инициативе автора или редакции. Еженедельно выходят десятки тысяч научных статей, из которых отзывается лишь небольшая часть, но даже это меньшинство вызывает глубокую озабоченность у научного сообщества(7). Проведенное в 2011 году исследование показало, что за предыдущее десятилетие количество отзывов статей увеличилось в десять раз, и это открытие пробудило интерес к дальнейшему изучению данной проблемы, чтобы выяснить причины такого роста(8). Результаты поразили: обнаружилась устойчивая корреляция между индексом ретракции журнала (процентом отозванных статей) и его импакт-фактором (численным показателем цитируемости журнала); то есть статьи, опубликованные в журналах с более высоким рейтингом, отзывались значительно чаще статей, опубликованных в менее авторитетных журналах.

Дальнейшее исследование показало, что более двух третей отзывов статей в медико-биологической сфере произошло из-за нарушений и неэтичного поведения со стороны исследователей, а не из-за ошибок в тексте публикации. Авторы отмечают, что полученные данные могут быть весьма заниженными, так как о случаях мошенничества в науке часто умалчивают(9). Ярким тому подтверждением служит опрос, согласно которому только 2 процента ученых признались в том, что фальсифицировали данные, при этом 14 процентов утверждали, что знали о таких случаях среди коллег(10). Более того, увеличилось процентное соотношение статей, нарушающих научную этику, ко всем отозванным статьям(11). Многих ученых это шокировало, поскольку отзыв статьи считался проявлением добросовестности автора, поправляющего закравшуюся ошибку. Что еще хуже, невозможность отозвать все заслуживающие этого статьи портит научный климат в целом, отчего в дальнейшем наука все дальше уходит от того, какой должна быть.

Известно о нескольких случаях мошенничества, которое долгое время совершали крупные ученые. В конце 1990-х годов Хван У Сок, биотехнолог из Южной Кореи, стал известен как «гордость Кореи» за свои научные заслуги. Он был одним из первых в мире, кому удалось клонировать коров и свиней. Несмотря на то, что Хван У Сок так и не представил научно достоверных, верифицируемых данных, он часто фотографировался с известными людьми, например с политиками, и стал предметом гордости Южной Кореи, подняв самооценку целой нации. Мир радостно принял новость об успехе Хван У Сока в клонировании эмбриональных стволовых клеток человека, что ранее считалось невозможным. А позднее, в 2004 году, его обвинили в том, что он вынуждал работавших с ним исследователей становиться донорами клеток. Тем не менее, эти обвинения не помешали журналу Time назвать его одним из людей года. В заметке говорилось, что он «уже доказал, что клонирование человека не научная фантастика, а свершившийся факт»(12). Последовавшим расследованиям этики открыто мешали политики, патриотически настроенные газеты и даже местные активисты, а больше тысячи женщин выразили готовность стать донорами яйцеклеток во благо науки. Однако в 2006 году стало известно, что Хван У Сок полностью подделал свое исследование. Публикации были отозваны, а сам он приговорен к двум годам тюрьмы условно.

В 2011 году Дидерик Стапел, декан Школы социальных и поведенческих наук Тилбургского университета, был вынужден уйти в отставку, после того как выяснилось, что он сфабриковал результаты почти всех своих исследований, а также работ своих студентов. Как и Хван, у себя на родине Стапел был настоящей знаменитостью, и голландцы гордились его публикациями. Например, в 2011 году он опубликовал работу, в которой исследовал центральный вокзал города Утрехт и обнаружил, что люди чаще проявляли расизм, если вокруг было грязно. В другой работе он заявлял, что мясная диета делала людей эгоистичнее и асоциальнее(13). Оба исследования основывались на выдуманных данных. Когда мошенничество было раскрыто, Стапел попытался оправдать свои поступки страхом неудачи и давлением академической среды, из-за которых ученые вынуждены публиковаться часто и при этом делать важные открытия, просто чтобы сохранить свой статус.

Случаи с Хваном и Стапелом, хотя и представляют собой исключения, наглядно показывают, почему статьи чаще отзываются из серьезных и авторитетных научных журналов – ученые делают громкие заявления, находясь под сильным давлением научного сообщества и общества в целом. Раскрыть мошенничество помогает серия связанных, системных факторов: растущая открытость научной деятельности, применение технологий к анализу научных публикаций, повышающийся интерес и даже азарт ученых, в особенности молодых, перепроверить или оспорить полученные результаты.

По мере того как все больше научных публикаций становятся доступными все более широкому кругу читателей, потому что находятся в открытом доступе или распространяются в цифровом формате, эти работы подвергаются особо пристальному штудированию, которое не всегда исходит от людей. Университеты и частные компании разработали ряд программ, которые автоматически сравнивают научные статьи с теми, что уже выложены в огромные базы опубликованных работ, и выявляют некорректные заимствования и плагиат. Студенты же, чтобы обойти систему, придумали «контрмеры», например синонимизацию текста, при которой в оригинальном тексте все возможные слова заменяются на синонимы, что вводит в заблуждение проверяющий алгоритм. Идет «гонка вооружений» между авторами и машинами, и сегодня наиболее продвинутые алгоритмы по выявлению плагиата уже задействуют нейросети для поиска в тексте нехарактерных слов и фраз, которые могут свидетельствовать о недобросовестности писавшего. Но ни плагиата, ни явного мошенничества недостаточно, чтобы объяснить более серьезный кризис в науке – воспроизводимость.

Воспроизводимость – это краеугольный камень научной методологии, который подразумевает, что независимые исследователи могут точно повторить проведенное исследование и получить те же результаты. На практике эксперименты повторяют крайне редко, и даже в этом случае результаты редко совпадают с заявленными. В Центре открытой науки Университета Виргинии с 2011 года действует инициатива «Воспроизведение», в рамках которой были воссозданы условия для повторения пяти ключевых исследований в области раковых заболеваний. Целью проекта было получение результатов, соответствующих результатам исходных экспериментов, каждый из которых цитировался тысячи раз, что, казалось, должно было обеспечить их воспроизводимость. Однако в результате, несмотря на тщательную реконструкцию условий и особенностей проведения, удалось повторить результаты только двух из пяти экспериментов – два эксперимента дали неоднозначные результаты, а один и вовсе провалился. Проблема воспроизводимости не ограничивается областью медицины: в исследовании, проведенном журналом Nature среди представителей самых разных наук, выяснилось, что 70 процентам ученых, повторявших эксперименты других исследователей, не удалось получить изначальные результаты(14). Во всех областях – от медицины до психологии, от биологии до наук об окружающей среде, – исследователи приходят к пониманию того, что, возможно, ошибки кроются в самом основании их научных изысканий.

Причины научного кризиса различны и, как в случае с научной недобросовестностью, которая представляет собой часть большой проблемы, нередко кроются в растущей прозрачности исследований и возможностей пересмотра научных достижений. Иные проблемы носят более системный характер: от давления на ученых, вынуждающего их много публиковаться, а значит, представлять в выгодном свете «сырые», спорные результаты, умалчивая о выявленных противоречиях; до самих инструментов получения научных результатов.

Наиболее противоречивая из применяемых практик – техника «просеивания» данных, или по-английски «p-hacking», где p — значение, при котором полученные экспериментальным путем результаты могут считаться статистически значимыми. Возможность подсчитать значение p сделало его общепринятым показателем научной строгости при проведении экспериментов. При p меньше 0,05 вероятность того, что корреляция случайна или ошибочна, составляет менее 5 процентов, и во многих науках эта цифра принята в качестве порогового показателя успешности гипотезы. К сожалению, следствием такой договоренности стало то, что значение p менее 0,05 превратилось из мерила в основную цель. Исследователи, когда перед ними ставится конкретная задача, могут произвольно отсортировывать большие объемы данных так, чтобы доказать любую интересующую гипотезу.

Чтобы продемонстрировать, как работает просеивание данных, предположим, что зеленые игральные кости (в отличие от всех остальных игральных костей) имеют смещенный центр тяжести. Возьмем десять зеленых костей и бросим каждую из них по сто раз. Из тысячи бросков 183 раза выпадало «шесть». Если бы кости не были мечеными, то «шесть» должно было бы выпадать при каждом шестом броске, то есть 167 раз. Что-то здесь нечисто. Чтобы определить состоятельность эксперимента, нужно подсчитать, чему равно p. Хотя значение p не имеет никакого отношения к рассматриваемой гипотезе, p – это всего лишь вероятность, с которой случайным образом может 183 раза выпасть «шесть». Для тысячи бросков эта вероятность составляет всего четыре процента, следовательно, p = 0,04, а значит, мы экспериментальным путем получили результат, который во многих научных сообществах считается приемлемым для публикации(15).

Разве не должен такой смехотворный процесс считаться крайним упрощением? Должен, но он всех устраивает. Значение p легко подсчитать и понять, следовательно, все больше научных журналов используют его в качестве условного критерия, чтобы отсеять наиболее достоверные из тысяч поступивших на рассмотрение статей. Более того, «просеивание» зависит не только от этих случайных результатов. Сами исследователи могут прочесывать огромные объемы данных в поисках нужных им результатов. Допустим, помимо десяти зеленых костей, мы бросали еще и десять синих, десять желтых, десять красных и так далее. Я мог бы бросить кости пятидесяти разных цветов, и для большинства из них результаты были бы приближены к статистически усредненным. Но чем больше совершено бросков, тем выше вероятность получить аномальный результат, вот его-то можно опубликовать. Такая практика и дала название методу «просеивания», проявившему себя с особенно плохой стороны в общественных науках, в которых исследователи стремительно получили доступ к колоссальным объемам информации, поставляемой социальными сетями и другими источниками поведенческих данных. Однако вездесущее «просеивание» характерно не только для социальных наук.

Согласно проведенному в 2015 году масштабному анализу 100 000 научных работ, находящихся в открытом доступе, метод просеивания присутствовал в самых разных дисциплинах(16). В ходе анализа рассматривались все показатели p в каждой из работ, и было обнаружено, что в большинстве случаев значение p лишь немного недотягивало до границы в 0,05, что, вероятно, свидетельствует о том, что многие исследователи «подгоняли» результаты экспериментов, наборы данных или статистические методы, чтобы получить результат в пределах допустимых значений. Именно это побудило редакторов PLOS ONE, одного из ведущих медицинских научных журналов, опубликовать редакционную статью «Почему большинство опубликованных результатов исследований неверны», в которой они раскритиковали применяемые статистические методы(17).

Необходимо подчеркнуть, что просеивание данных само по себе не является мошенничеством. Даже если с результатами что-то не в порядке, беспокойство вызывает не намеренная подмена данных, а тот факт, что это может происходить бессознательно под давлением институтов, из-за низких стандартов принятия работ к публикации и самого объема данных, доступных ученым. Научное сообщество встревожено сочетанием растущего числа отзывов статей, невозможности воспроизвести эксперименты, внутренней сложности научного анализа и распространения материалов, и уже одна эта тревога губительна, так как наука строится на доверии между исследователями и доверии общественности. Любое снижение доверия плохо отразится на будущем научных исследований, независимо от того, вызвано ли оно недобросовестностью нескольких «паршивых овец» или совокупными действиями множества самых разных акторов, притом что во втором случае установить большинство причин невозможно.

Некоторые ученые предрекали кризис контроля качества в науке еще несколько десятилетий назад, многие из них связывали возможное наступление кризиса с резким ростом объема данных и исследований. В 1960-е годы Дерек де Солла Прайс, изучавший плотные Сети, образованные связанными между собой работами, учеными и областями научного поиска, нарисовал кривую научного роста. Использованные им данные отражали широкий круг факторов от материального производства до энергии ускорителей частиц, от основания университетов до открытия новых элементов. Как и по закону Мура, в целом развитие идет вверх и вправо. Де Соллу Прайса тревожило то, что если методы научного воспроизводства не претерпят существенных изменений, то наука насытится, не сможет усваивать доступные объемы информации и совершать осмысленные действия, начнет распадаться и впадет в «маразм»(18). Спойлер: научные методы так и не изменились.

В последнее время эти опасения нашли отражение в концепции «информационного переполнения»(19). По-простому, переполнение противоположно нехватке, это бесконечный поток информации. Более того, в отличие от изобилия этот поток настолько избыточен, что мы не справляемся с его обработкой. В исследованиях экономики «переполнение» касается того, как люди расставляют приоритеты, если у них слишком мало времени, а информации слишком много. Как отмечали авторы одного из исследований, переполнение «напоминает разбор завалов или мусорной свалки»(20).

Переполнение присутствует во многих областях, и когда оно становится заметным, разрабатываются стратегии по его преодолению. Традиционно роль сортировщиков, отбирающих материалы для публикации, выполняют журналисты и редакторы, которые, как подразумевается, являются опытными специалистами, несут определенную ответственность и обладают достаточной властью. В науке переполнение проявляется в быстром росте числа журналов и статей, заявок на гранты и замещение академических должностей, объема доступной информации и исследований. Растет даже средний объем статей, поскольку исследователи перегружают свои научные работы множеством ссылок, чтобы охватить обилие данных и подкрепить полученные результаты, которые просто обязаны быть впечатляющими. В итоге теряется контроль качества: даже золотой стандарт взаимного рецензирования уже не считается достаточно объективным или отвечающим цели, так как количество статей растет, а институты увязли в гонке авторитетов. Все громче становятся призывы сделать научные публикации открытыми и доступными, что, в свою очередь, может привести к тому, что появится еще больше научных исследований(21).

Внимание! Это не конец книги.

Если начало книги вам понравилось, то полную версию можно приобрести у нашего партнёра - распространителя легального контента. Поддержите автора!

Страницы книги >> Предыдущая | 1 2 3 4 5 6
  • 0 Оценок: 0

Правообладателям!

Данное произведение размещено по согласованию с ООО "ЛитРес" (20% исходного текста). Если размещение книги нарушает чьи-либо права, то сообщите об этом.

Читателям!

Оплатили, но не знаете что делать дальше?


Популярные книги за неделю


Рекомендации