Текст книги "Сила конфиденциальности. Почему необходимо обладать контролем над своими персональными данными и как его установить"
Автор книги: Карисса Велиз
Жанр: Компьютеры: прочее, Компьютеры
Возрастные ограничения: +16
сообщить о неприемлемом содержимом
Текущая страница: 12 (всего у книги 15 страниц)
Отслеживать наши личные данные
Одна из самых больших проблем регулирования персональных данных – это сложность контроля над ними. На данный момент мы вынуждены полагаться на обещания технологических компаний, которые доказали, что не заслуживают доверия.
Органы по защите данных в Европе часто недоукомплектованы кадрами и недостаточно финансируются. Трудно иметь регулирующие органы, которые смогут контролировать все организации, занимающиеся персональными данными. В настоящее время технологические гиганты более могущественны и богаты, чем некоторые страны.
Ограничение использования персональных данных предлагаемыми мной способами упростит работу по осуществлению контроля хотя бы потому, что количество распространяемой личной информации будет ограничено. Но персональные данные по-прежнему будет сложно отслеживать.
Тот факт, что люди не могут узнать, у кого хранятся их данные, является огромным препятствием. Это усугубляет и без того тревожную асимметрию между частными лицами и организациями и возлагает бремя выявления злоупотреблений исключительно на надзорные органы.
Было бы идеально, если бы мы могли отслеживать собственные данные. Представьте, что у вас есть приложение, отображающее в реальном времени карту, на которой показано, у кого есть ваши данные и как они их используют, и позволяющее вам мгновенно отозвать их, если вы захотите. Один из самых пугающих аспектов цифровой эпохи заключается в том, что, читая эти слова, вы, возможно, подвергаетесь воздействию десятков алгоритмов, которые оценивают ваши персональные данные и решают вашу судьбу на их основе – и все это без вашего ведома или согласия. Прямо в этот момент некий алгоритм может пометить вас как некредитоспособного, в то время как другой алгоритм поместит вас ниже в списке ожидания на операцию, которая вам нужна (возможно, на основе ошибочного критерия), а еще один посчитает вас безработным.
Если вы не знаете, когда алгоритм просматривает ваши данные и принимает решение в отношении вас, как вы поймете, что можете стать жертвой несправедливости? Если вы не способны отследить, у кого есть ваши данные и как они их используют, как вы можете быть уверены, что ваши права на защиту персональных данных соблюдаются?
Есть как минимум две основные технические проблемы, связанные с предоставлением людям возможности отслеживать свои данные. Во-первых, нужно сопоставить персональные данные с лицом, о котором они рассказывают, и убедиться, что у него запрашивается согласие, прежде чем информация будет опубликована. Есть простые случаи: требуется только ваше согласие на сбор или использование вашего адреса электронной почты. Но когда персональные данные включают информацию более чем об одном человеке, задача может усложниться. Чтобы делиться своими генетическими данными с соблюдением этических норм, вам необходимо согласие как минимум ваших родителей, братьев, сестер и детей. Но что, если ваши дети еще несовершеннолетние и не согласились бы, будучи взрослыми? А как насчет ваших двоюродных братьев и сестер? Как далеко по семейной линии мы должны спрашивать согласия? На эти вопросы трудно ответить, вы не можете быть уверены в том, какие выводы могут быть сделаны о ваших двоюродных братьях и сестрах с помощью ваших генетических данных в будущем. Когда есть сомнения, следует поступать с осторожностью. Возможно, мы не должны позволять людям делиться своими генетическими данными ни с кем, кроме лечащих врачей, когда в этом есть серьезная медицинская необходимость.
Вторая важная задача – разработать способ получения полной информации о том, как используются наши данные, без дополнительной угрозы конфиденциальности. Это сложная задача, и она может оказаться невыполнимой. Может случиться так, что, помечая свои персональные данные для их дальнейшего отслеживания, мы неизбежно разоблачим себя, и в этом случае основная цель – лучше защитить нашу конфиденциальность – не будет достигнута. Нужно еще посмотреть, как это работает. Создатель Всемирной паутины сэр Тим Бернерс-Ли в настоящее время работает над проектом Solid, который направлен на разработку модулей персональных данных, дающих пользователям полный контроль над своими персональными данными. Если Solid или подобному проекту удастся преодолеть эти и другие технические проблемы, это может кардинально изменить способ управления персональными данными.
Защитить наших детей
Мы должны защищать всех, но в первую очередь детей, потому что они находятся в исключительно уязвимом положении касательно конфиденциальности. Дети младшего возраста не могут самостоятельно защитить свою конфиденциальность. В этом смысле они зависят от своих семей и школ. И нынешняя тенденция заключается в том, чтобы наблюдать за детьми с момента их зачатия под предлогом обеспечения безопасности.
В частности, есть две основные причины, по которым следует беспокоиться о конфиденциальности детей. Во-первых, слежка может поставить под угрозу их будущее. Мы не хотим, чтобы возможности наших детей находились под угрозой со стороны организаций, оценивающих их (и, возможно, делающих это неверно) на основании информации об их здоровье, интеллектуальных способностях, поведении в школе и взаимоотношениях с друзьями. Не говоря уже о том, что, возможно, и это даже более важно, слишком пристальная слежка может сломить дух людей. Воспитывать детей в условиях постоянной слежки – значит воспитывать субъектов, а не граждан. А мы хотим воспитывать граждан. Ради собственного благополучия и ради благополучия общества. Обществу нужны независимые и заинтересованные граждане, способные задавать вопросы и менять текущее положение дел. Государства не достигают величия благодаря слепо подчиняющимся гражданам. Чтобы стать людьми с сильным сердцем и разумом, детям необходимо исследовать мир, делать ошибки и учиться на собственном опыте, зная, что их промахи не будут зафиксированы, а тем более использованы против них. Конфиденциальность необходима для развития бесстрашия.
Вероятно, из-за своей крайней уязвимости дети и особенно подростки, как правило, гораздо больше, чем взрослые, чувствительны к тому, что о них думают другие. Поэтому слежка может восприниматься ими даже более остро. Молодые люди, за которыми все время следят, с меньшей вероятностью осмелятся попробовать что-то новое, что у них пока не очень хорошо получается, но что они могли бы со временем хорошо освоить через практику, если бы только их оставили одних, чтобы у них не было страха выглядеть глупо у всех на виду.
Несколько осложняет ситуацию то, что дети нуждаются в некотором надзоре в целях безопасности. Риск состоит в том, что безопасность будет использоваться в качестве предлога для избыточной слежки, а грань между тем, что необходимо, и тем, что неоправданно, не всегда очевидна. Защитники слежки в школе утверждают, что они «обучают» детей тому, как быть хорошими «виртуальными гражданами», помогая им привыкнуть к тотальной слежке, которой они будут подвергаться и после выпуска.
«Представьте взрослого человека на работе. Он не будет писать все, что ему заблагорассудится, в электронном письме, потому что почта просматривается, – заявил Билл Маккалоу, представитель Gaggle – американской компании, осуществляющей мониторинг школ. – Мы готовим детей к тому, чтобы стать успешными взрослыми»[292]292
Lois Beckett, ‘Under Digital Surveillance: How American Schools Spy on Millions of Kids’, Guardian, 22 October 2019.
[Закрыть]. Но это не так. Избыточная слежка учит детей тому, что права человека не обязательно должны соблюдаться. Мы не можем реально ожидать от людей, которым в детстве внушили, что их права не имеют значения, уважения к правам других в зрелом возрасте.
Шпионить за детьми с самого начала, чтобы они привыкли к этому во взрослой жизни, – все равно что внедрять совершенно несправедливую систему оценок в школе, чтобы дети привыкали к факту несправедливости в жизни. Если мы не принимаем второе, мы не должны принимать и первое. Справедливая система оценок не только дает всем детям равные возможности, но и учит их ожидать справедливости от организаций, что в дальнейшем будет побуждать их требовать, бороться и отстаивать справедливость, когда ее нарушают. То же самое и с конфиденциальностью.
Слежка поощряет самоцензуру. Это предупреждение для учащихся: не нарушать границы дозволенного, не обсуждать деликатные темы и даже не осуществлять поиск по ним в интернете. Любое поведение, выходящее за рамки того, что является политически и социально безопасным, может вызвать школьное или даже полицейское расследование. Но подростковый возраст всегда связан с любопытством по поводу всего, что происходит в жизни. Молодые люди интересуются сексом, наркотиками, смертью и другими щепетильными темами, и запрет на изучение этих тем не будет способствовать развитию их знаний или взрослению. Запретить говорить – значит запретить думать. В некотором смысле, когда мы слишком жестко контролируем молодых людей, мы ограничиваем их способность становиться ответственными взрослыми, которым не потребуется надзор. Избыточная слежка за детьми чревата тем, что будет воспитано поколение людей, которым так и не дали повзрослеть.
Как родители вы можете многое сделать для защиты конфиденциальности своих детей. Но прежде чем мы перейдем к тому, что каждый из нас может сделать для защиты конфиденциальности, стоит ответить на один распространенный вопрос: разве нам не нужны персональные данные?
Разве нам не нужны личные данные?
Энтузиасты экономики данных наверняка скажут вам, что отключение потока персональной информации будет препятствовать инновациям.
Некоторые паникеры вообще заявляют, что если мы будем регулировать экономику данных, то иностранные (возможно, даже враждебные) силы будут развивать искусственный интеллект быстрее, чем мы, и обгонят нас. То есть если мы ограничим возможности использования данных, то положим конец прогрессу. Краткий ответ на это возражение – «нет». Прогресс защищает права человека, а не подрывает их. Слишком часто политический и социальный регресс рядится в обманчивые «одежды» технического прогресса. Экономическая модель, основанная на систематическом нарушении прав людей, не является прогрессом. Преимущества экономики данных с точки зрения прибыли, научного прогресса и безопасности постоянно преувеличивались, а ее издержки приуменьшались энтузиастами технологий.
Есть и более развернутый ответ на это. Даже если мы понимаем, что прогресс означает только его техническую сторону, ответ все равно будет «нет» – защита конфиденциальности необязательно должна происходить за счет развития технологий. Не будем забывать, что персональные данные в основном используются для получения финансовой выгоды. Таким компаниям, как Google, возможно, даже не придется вводить новшества, чтобы обеспечить устойчивую бизнес-модель. Возможно, шансы Google на прямую продажу своих услуг потребителям были невелики с самого начала. Тогда потребители еще не успели почувствовать, каково это – ориентироваться в повседневной жизни с помощью поисковой системы Google, их карт и других продуктов. Но теперь пользователи Сети хорошо понимают ценность продуктов Google. Давайте заплатим за эти услуги, если они для нас важны. В 2013 году, когда дела Google шли уже очень хорошо, у компании было 1,3 миллиарда пользователей, а годовой доход составлял около 13 миллиардов долларов, то есть около 10 долларов в год с каждого пользователя[293]293
Tristan Louis, ‘How Much Is a User Worth?’, Forbes, 31 August 2013.
[Закрыть]. Разве это не разумная цена за услуги Google? Это меньше, чем люди платят за развлекательные услуги, такие как доступ к Netflix, которые стоят немногим больше 10 долларов в месяц.
Разрешение зарабатывать на персональных данных создает стимул для сбора большего количества данных, чем это необходимо для технического прогресса. Использование данных в целях науки и техники запрещать нельзя, но если организации захотят поэкспериментировать с персональными данными, они должны будут взять на себя соответствующие обязательства по соблюдению прав людей. Это разумное требование. Если технологическим компаниям удастся преобразовать свои усилия в ценные услуги для пользователей Сети, то мы будем рады платить за них, как и за другие вещи, которые мы ценим в реальном мире.
Кроме того, далеко не так очевидно, может ли бесконечное количество персональных данных привести к техническому или научному прогрессу. Как мы видели, избыточное количество данных может помешать мыслительному процессу и принятию решений. Добавление большего количества данных в плохой алгоритм не сделает его хорошим. Когда мы проектируем искусственный интеллект, мы стремимся к тому, чтобы создать именно ИНТЕЛЛЕКТ. Но если вы недавно взаимодействовали с онлайн-помощником, то наверняка заметили, что интеллектом он не блещет.
Иногда люди могут узнать что-то новое на одном примере, потом они переносят эти знания на аналогичные, но новые сценарии. По мере того как системы искусственного интеллекта становятся умнее, мы можем ожидать, что им будет требоваться меньше данных[294]294
James H. Wilson, Paul R. Daugherty and Chase Davenport, ‘The Future of AI Will Be About Less Data, Not More’, Harvard Business Review, 14 January 2019.
[Закрыть]. Наиболее важные проблемы для развития искусственного интеллекта являются техническими, и они не будут решены путем наращивания объема персональных данных[295]295
Bruce Schneier, ‘Data, Surveillance, and the AI Arms Race’, (2019).
[Закрыть], потому что, и это не должно нас удивлять, самые передовые результаты искусственным интеллектом были достигнуты не за счет использования персональных данных.
AlphaZero – это алгоритм, разработанный Google DeepMind, который играет в древнюю китайскую игру го (а также в шахматы и сёги). Что делает го особенно интересной игрой для освоения искусственного интеллекта? Во-первых, это ее сложность. По сравнению с шахматами в го доска большего размера, и на каждый ход нужно учитывать гораздо больше альтернатив. Из одной позиции в шахматах можно пойти примерно 20 способами, а в го – двумя сотнями. А количество возможных конфигураций на доске больше, чем число атомов во Вселенной. Во-вторых, го – это игра, в которой большую роль играет интуиция. Когда профессионалов спрашивают, почему они сделали тот или иной ход, они часто отвечают, что «это кажется правильным». Именно это интуитивное качество заставляет людей считать го искусством, а игроков – художниками. Таким образом, чтобы компьютерная программа могла победить игрока в го, она должна имитировать человеческую интуицию – или, точнее, результаты человеческой интуиции. Самое примечательное в алгоритме AlphaZero – это то, что его разрабатывали исключительно путем игры против самого себя. Внешние данные не использовались. Алгоритм AlphaGo, предшествовавший AlphaZero, был частично разработан путем демонстрации сотен тысяч игр в го между людьми. DeepMind потребовались месяцы, чтобы так усовершенствовать AlphaGo, что он смог победить чемпиона мира Ли Седола. AlphaZero развил сверхчеловеческие способности по игре в го всего за три дня. И все это – без использования личных данных.
А как насчет медицины?
Медицина представляет собой исключительный случай по части обработки данных. Во-первых, потому что она необычайно важна для всех нас. Мы все желаем быть здоровыми и жить как можно дольше, поэтому хотим, чтобы медицина развивалась максимально быстро. Во-вторых, потому что медицинские данные очень конфиденциальны: их утечка может привести к навешиванию социальных ярлыков, дискриминации и даже худшим последствиям. В-третьих, потому что анонимизировать медицинские данные чрезвычайно сложно, а иногда и невозможно. Генетическая информация, как мы видели, является хорошим примером: это данные, которые идентифицируют вас именно как вас – они включают в себя саму вашу личность. В более общем смысле, чтобы медицинские данные были полезными, важно обозначить различные единицы информации, принадлежащие одному и тому же человеку, и чем больше единиц информации мы имеем о человеке, тем легче его идентифицировать.
Зависит ли развитие медицины от обмена личными данными? Нет. Во-первых, мы должны более скептически относиться к силе цифровых технологий. Во-вторых, есть способы использования персональных данных в медицинских исследованиях, которые минимизируют риск огласки для пациентов и требуют их согласия. В-третьих, некоторые из наиболее важных достижений медицины могут вообще не использовать персональные данные. Давайте подробнее рассмотрим всё пункт за пунктом.
Перспективы цифровых технологий в медицине
Цифровые технологии и большие массивы данных – это не панацея. Мы не можем ожидать, что они решат все наши проблемы. Иногда инновации, которые спасают больше жизней, связаны не с высокими технологиями, а с менее яркими изменениями, такими как улучшение гигиены. Это не означает, что высокие технологии не могут способствовать развитию медицины, но, обсуждая их пользу, мы не должны оставлять за дверью наше критическое мышление. Когда технология становится идеологией, что иногда случается, она уходит от науки в сторону предрассудков. Вот два примера того, как цифровые технологии дают слишком много обещаний и показывают недостаточную эффективность в контексте медицины.
Первый пример – это искусственный интеллект IBM Watson. В 2011 году, после того как Watson удалось победить двух чемпионов в американском игровом шоу «Jeopardy!» (в России выходит под названием «Своя игра». – Прим. ред.), IBM объявила, что разработанный ею искусственный интеллект станет врачом. Компания заявила, что ее первые коммерческие продукты будут доступны через восемнадцать – двадцать четыре месяца. Девять лет спустя это обещание все еще не было выполнено.
В 2014 году IBM инвестировала в развитие Watson 1 миллиард долларов. К 2016 году она приобрела четыре компании по обработке данных о здоровье на общую сумму 4 миллиарда долларов. Однако многим больницам, которые участвовали в проектах Watson от IBM, пришлось их прекратить. Онкологический центр доктора медицины Андерсона был вынужден отменить свой проект с Watson по разработке консультативного инструмента для онкологов, ранее потратив на него 62 миллиона долларов[296]296
Eliza Strickland, ‘How IBM Watson Overpromised and Underdelivered on AI Health Care’, IEEE Spectrum, 2 April 2019.
[Закрыть]. Университетская больница Гиссена и Марбурга в Германии тоже отказалась от участия в проекте. Когда врач сказал Watson, что пациент страдает от боли в груди, система не учла, что у него может быть сердечный приступ. Вместо этого искусственный интеллект выдвинул предположение, что у пациента редкое инфекционное заболевание[297]297
Martin U. Müller, ‘Medical Applications Expose Current Limits of AI’, Spiegel, 3 August 2018.
[Закрыть]. В другом случае больному раком с сильным кровотечением Watson предложил назначить лекарство, которое могло вызвать обострение кровотечения. «Этот продукт – кусок дерьма», – заключил врач больницы Юпитер во Флориде[298]298
Angela Chen, ‘IBM’s Watson Gave Unsafe Recommendations For Treating Cancer’, Verge, 26 July 2018.
[Закрыть].
Проект IBM Watson – не единичный случай разочаровывающего применения технологий в медицине. В 2016 году DeepMind заключила сделку с Royal Free NHS Trust в Лондоне. DeepMind собрала медицинские карты 1,6 миллиона пациентов без их согласия или ведома. Это означает, что компания получила доступ к отчетам о патологии, рентгенологическим исследованиям, ВИЧ-статусу, о том, кто делал аборт, кто болел раком, и так далее. Управление комиссара по информации позже сочло, что Royal Free нарушила законы о защите данных.
Первоначальная идея заключалась в том, чтобы использовать искусственный интеллект для разработки приложения для обнаружения острого поражения почек. Вскоре исследователи поняли, что у них недостаточно данных для использования искусственного интеллекта, поэтому они остановились на чем-то более простом. В итоге обнаружилось, что разработанное приложение Streams «не оказывает статистически значимого положительного влияния на клинические результаты пациентов»[299]299
Julia Powles, ‘DeepMind’s Latest AI Health Breakthrough Has Some Problems’, Medium, 6 August 2019.
[Закрыть].
Обе эти неудачи не означают, что все последующие попытки не увенчаются успехом, но они дают некоторое представление о перспективах цифровых технологий в медицине. В недавнем метаанализе было рассмотрено около 20 000 исследований медицинских систем искусственного интеллекта, в которых утверждалось, что они могут диагностировать болезни не хуже врачей. Ученые выявили, что только четырнадцать из этих исследований (менее 0,1 %) были выполнены на достаточном методологическом уровне, чтобы допустить эти алгоритмы до клинических испытаний[300]300
Xiaoxuan Liu, Livia Faes, Aditya U. Kale, Siegfried K. Wagner, Dun Jack Fu, Alice Bruynseels, Thushika Mahendiran, Gabriella Moraes, Mohith Shamdas, Christoph Kern, Joseph R. Ledsam, Martin K. Schmid, Konstantinos Balaskas, Eric J. Topol, Lucas M. Machmann, Pearse A. Keane and Alastair K. Denniston, ‘A Comparison of Deep Learning Performance Against Health-Care Professionals in Detecting Diseases From Medical Imaging: A Systematic Review and Meta-Analysis’, Lancet Digital Health 1, 2019.
[Закрыть].
То, что медицинский искусственный интеллект может не помочь пациентам, не единственная проблема. Более серьезные опасения вызывает то, что это может навредить пациентам. Например, искусственный интеллект назначит чрезмерное или некорректное лечение. Некоторые медицинские цифровые технологии, похоже, ошибаются в сторону ложноположительных результатов при диагностике (обнаруживают медицинские проблемы, когда их нет). Некоторые алгоритмы, ищущие раковые клетки, например, будут маркировать как аномальные совершенно здоровые клетки, допуская восемь ложноположительных ошибок на одно изображение[301]301
L. Wang, L. Ding, Z. Liu, L. Sun, L. Chen, R. Jia, X. Dai, J. Cao and J. Ye, ‘Automated Identification of Malignancy in Whole-Slide Pathological Images: Identification of Eyelid Malignant Melanoma in Gigapixel Pathological Slides Using Deep Learning’, British Journal of Ophthalmology 104, 2020.
[Закрыть]. Если компании и врачи заинтересованы (финансово или профессионально) во вмешательстве в дела пациентов, то это может привести к избыточному лечению.
Еще одна возможная проблема – это сбои. Опасно полагаться на цифровые технологии, потому что программирование – чрезвычайно сложный процесс, а у цифровых технологий есть потребности, которых нет у аналоговых, и все это приводит к тому, что цифровые технологии зачастую менее надежны, чем аналоговые. Сравните, например, электронную книгу с бумажной. Устройство для чтения электронных книг через определенное время нужно заряжать, оно может быть взломано, может выйти из строя, если вы уроните его в песок, воду или на твердую поверхность, и так далее. Напротив, бумажные книги очень надежны. Их не нужно заряжать, и, если вы уроните книгу с крыши здания, она, скорее всего, не слишком пострадает (пострадать может лишь проходящий мимо человек, в которого она угодит, – так что не делайте так). Когда вы имеете дело с оборудованием, спасающим жизни, вам нужна технология, не уступающая по надежности бумажной книге.
Эти разительные неудачи лишь призваны показать особенности нынешнего положения и путей дальнейшего развития в части использования цифровых технологий в медицине. Конечно, искусственный интеллект может сыграть очень важную роль в развитии медицины. Но, как и в случае с любым другим вмешательством, нам нужно, чтобы эти методы были основаны на убедительных доказательствах, прежде чем нас попросят передать наши персональные данные, и нам необходимы некоторые заверения в том, что наши данные будут обработаны должным образом и будут проанализированы все возможности и риски их использования. Слишком часто искусственный интеллект получает бесплатный допуск к нашим данным. Предположим, мы решили, что хотим провести медицинское исследование с использованием персональных данных и цифровых технологий. В конце концов, обещания персонализированной медицины очень заманчивы. И есть способы организовать это в рамках этических норм, а не так, как сделали DeepMind и Royal Free.
Этические медицинские исследования
Медицинская этика имеет долгую историю привлечения людей для исследований. Исследования с использованием персональных данных не должны сильно отличаться от других видов медицинских исследований. Несмотря на то что предоставление личных данных не похоже на сдачу крови – тут нет иглы и боли, – существуют аналогичные риски. Мы больше не заставляем людей подписываться на клинические исследования (хоть и делали это раньше, до появления медицинской этики). Мы также не должны заставлять людей предоставлять свои персональные данные для медицинских исследований. Недопустимо использовать население в качестве подопытных кроликов без их согласия, без надлежащих мер безопасности и без компенсации. Скорее нам следует запросить согласие людей, установить некоторые правила того, как их данные будут использоваться и когда они будут удалены, а также выплатить соответствующую компенсацию субъектам исследования, как мы делаем это при других исследованиях.
Иногда учреждения общественного здравоохранения не имеют необходимых ресурсов или технологий для анализа данных, и они могут прибегнуть к сотрудничеству с технологическими компаниями. В таких случаях мы должны быть абсолютно уверены в том, что заключенные сделки выгодны для субъектов данных и пациентов. Среди множества ошибок, допущенных Royal Free, две видятся особенно вопиющими. Во-первых, они не получили никаких юридических гарантий того, что DeepMind не будет использовать эти данные ни для чего, кроме разработки приложения. Они лишь взяли с компании обещание, что данные не будут сопоставляться с информацией, хранящейся в Google, но когда подразделение здравоохранения DeepMind было поглощено Google, эксперты по конфиденциальности начали опасаться, что это обещание будет нарушено[302]302
Margi Murphy, ‘Privacy Concerns as Google Absorbs Deepmind’s Health Division’, Telegraph, 13 November 2018.
[Закрыть].
Вторая большая ошибка заключалась в том, что компания Royal Free не позаботилась о том, чтобы пациенты получали пользу от продуктов, разработанных на основе их данных[303]303
Julia Powles and Hal Hodson, ‘Google DeepMind and Healthcare in an Age of Algorithms’.
[Закрыть]. В учреждениях общественного здравоохранения имеется так много ценных медицинских данных, что они могут использовать это как преимущество на переговорах, – и на это стоит обратить внимание. Доступ других организаций к этим данным должен быть ограничен. Например, компании могут использовать данные, но не хранить их. Учреждениям здравоохранения следует потребовать юридических гарантий того, что любой разработанный продукт будет предлагаться учреждениям здравоохранения и населению по доступным ценам.
Всегда будет сложно обеспечить безопасность персональных данных при взаимодействии с компаниями, основной целью которых не является служение на благо обществу. Если нам повезет, то, возможно, самые важные медицинские достижения, которые может предложить искусственный интеллект, вообще не будут связаны с использованием персональных данных.
Достижения в медицине без использования персональных данных
Как мы видели, AlphaZero, один из лучших примеров искусственного интеллекта, является выдающимся достижением, но у него нет практического применения в повседневной жизни (во всяком случае, пока). Один из способов, которым искусственный интеллект может изменить (и, возможно, спасти) нашу жизнь, – это открытие новых лекарств.
Антибиотики, вероятно, являются самым важным достижением медицины прошлого века. До открытия антибиотиков основными причинами смерти во всем мире были бактериальные инфекционные заболевания. Продолжительность жизни в развивающихся странах сейчас значительно увеличилась, и люди умирают в основном от неинфекционных заболеваний, таких как болезни сердца и рак (на момент написания книги все еще неясно, станет ли уровень смертности от пандемии коронавируса выше уровня смертности от неинфекционных заболеваний. – Прим. авт.). К сожалению, эффективность этих чудесных лекарств сейчас находится под угрозой из-за развития устойчивости к антибиотикам.
Благодаря эволюционным процессам, таким как мутации, бактерии становятся устойчивыми к антибиотикам, воздействию которых они подвергались. Чем больше мы используем антибиотики, тем больше у этих бактерий возможностей для развития устойчивости. Мир без эффективных антибиотиков – это реальная и очень пугающая перспектива. Низкий риск неблагоприятного исхода хирургических операций может смениться очень высоким. Больше женщин будет умирать при родах. Риск летального исхода будет возникать при любом визите к стоматологу или сексе на одну ночь, где возможно подхватить инфекцию. Химиотерапия и трансплантация органов станут намного опаснее, поскольку эти методы лечения подавляют иммунную систему. Устойчивость к антибиотикам может быть основным фактором снижения продолжительности жизни.
Нам отчаянно нужны новые антибиотики, но процесс открытия и разработки лекарств идет медленно и стоит дорого. Однако исследователи из Массачусетского технологического института считают, что они, возможно, обнаружили способ разработать новые антибиотики. Загрузив в компьютерную программу информацию об атомных и молекулярных характеристиках тысяч лекарств и природных соединений, они научили алгоритм определять типы молекул, убивающих бактерии. Затем они задействовали базу данных из 6000 соединений. Алгоритм выбрал одну молекулу, которая, по прогнозам, обладает сильным антибактериальным действием и, что особенно важно, имеет химическую структуру, отличную от существующих антибиотиков.
Эта компьютерная модель может проверить более 100 миллионов химических соединений всего за несколько дней, что было бы невозможно сделать в обычной лаборатории[304]304
Anne Trafton, ‘Artificial Intelligence Yields New Antibiotic’, MIT News Office, 20 February 2020.
[Закрыть]. Возможно, новый антибиотик, галицин, окажется сильнодействующим, а бактерии пока не выработали к нему устойчивости. Будем надеяться, что галицин сработает не хуже, чем нам хотелось бы, и что искусственный интеллект сможет найти для нас другие новые антибиотики, которые позволят выиграть войну с супербактериями.
То, что два самых выдающихся достижения в области искусственного интеллекта были сделаны без использования каких-либо персональных данных, не может быть совпадением: персональные данные часто неточны и могут относительно быстро устаревать. Так что, защищая нашу конфиденциальность, мы никоим образом не будем препятствовать развитию искусственного интеллекта. У технического прогресса есть широкое поле маневра для развития. Кроме того, признаком истинного прогресса – того прогресса, в который следует вкладывать ресурсы общества, – является защита прав граждан и повышение благосостояния людей. По обоим этим пунктам торговле персональными данными нечем похвастаться.
Правообладателям!
Это произведение, предположительно, находится в статусе 'public domain'. Если это не так и размещение материала нарушает чьи-либо права, то сообщите нам об этом.