Электронная библиотека » Ханна Фрай » » онлайн чтение - страница 2


  • Текст добавлен: 26 декабря 2020, 10:53


Автор книги: Ханна Фрай


Жанр: Прочая образовательная литература, Наука и Образование


Возрастные ограничения: +12

сообщить о неприемлемом содержимом

Текущая страница: 2 (всего у книги 17 страниц) [доступный отрывок для чтения: 5 страниц]

Шрифт:
- 100% +
Слепая вера

Воскресенье 22 марта 2009 года было не самым удачным днем в жизни Роберта Джонса. Он возвращался из гостей и, когда он проезжал через живописный городок Тодморден в Уэст-Йоркшире, на панели его BMW включился индикатор бензобака. Он мог позволить себе проехать до ближайшей бензоколонки километров десять – что-то надо было срочно предпринять. К счастью, GPS-навигатор, по-видимому, нашел короткий путь – и направил Роберта по узкой, извилистой дороге, которая вела из долины наверх.

Роберт послушно следовал указаниям навигатора, однако чем дальше, тем более узкой становилась дорога и тем круче она забирала вверх. Через несколько километров шоссе превратилось в грунтовый проселок, едва ли пригодный даже для гужевого транспорта, не говоря уже об автомобиле. Впрочем, Роберта это не смущало. Он зарабатывал на жизнь, проезжая тысячи километров в неделю, и крутил баранку вполне уверенно. К тому же он думал: “С чего бы мне не доверять навигатору?”

Вскоре снизу, из долины, если задрать голову и посмотреть вверх, можно было увидеть торчащий над самой кромкой обрыва передок машины, не рухнувшей вниз с высоты в тридцать метров лишь благодаря хлипкому деревянному заборчику, в который Роберт въехал.

В итоге для того, чтобы эвакуировать автомобиль с того места, где его покинул водитель, понадобились три квадроцикла и трактор. Позднее, в том же году, представ перед судом по обвинению в опасном вождении, Роберт признался, что ему и в голову не пришло спорить с навигатором. “Он упорно называл этот проселок дорогой, – сказал он корреспонденту газеты после происшествия. – Ну я ему и поверил. Как-то не ждешь, что тебя чуть не сбросят с обрыва”[25]25
  Chris Brooke, “I was only following satnav orders” is no defence: driver who ended up teetering on cliff edge convicted of careless driving, Daily Mail, 16 Sept. 2009, http://dailymail.co.uk/news/article-1213891/Driver-ended-teetering-cliff-edge-guilty-blindly-following-sat-nav-directions.html#ixzz59vihbQ2n).


[Закрыть]
[26]26
  Ibid.


[Закрыть]
.

Да, Роберт. Разумеется, этого ты не ждал.

В этой истории есть мораль. Наверное, тогда Джонс почувствовал себя довольно глупо, но, не поверив своим глазам (при виде отвесного склона за окном машины) и приписав компьютерной программе больше ума, чем она того заслуживает, он попал в достойную компанию. В конце концов, двенадцатью годами раньше в ту же самую западню угодил Гарри Каспаров. Да и все мы порой совершаем ту же ошибку, пусть и неосознанно, в не столь критичных, но не менее важных для нас ситуациях.

Еще в 2015 году ученые задались вопросом: почему иногда информационно-поисковые системы – например, Google – способны менять наши представления о мире[27]27
  Robert Epstein and Ronald E. Robertson, The search engine manipulation effect (SEME) and its possible impact on the outcomes of elections, Proceedings of the National Academy of Sciences, vol. 112, no. 33, 2015, pp. E4512–21, http://pnas.org/content/112/33/E4512.


[Закрыть]
? Они решили выяснить, существуют ли разумные границы доверия результатам поиска или мы готовы, скажем так, беспечно шагнуть в пропасть по воле поисковика.

Эксперимент проводили на примере грядущих выборов в Индии. Исследователи во главе с психологом Робертом Эпштейном отобрали по всей стране 2150 добровольцев, которые еще не решили, за кого голосовать, и открыли им доступ к специально разработанной системе под названием Kadoodle, чтобы они могли побольше узнать о кандидатах, прежде чем сделать выбор.

Программа оказалась с подвохом. Ничего не подозревавших участников эксперимента разбили на группы, каждой из которых показывали слегка различающиеся результаты поиска, с уклоном в пользу того или иного кандидата. Когда какая-нибудь группа заходила на сайт, сначала выдавалась информация об определенном кандидате – то есть, для того чтобы увидеть хоть одну страницу, посвященную другому кандидату, надо было прокрутить ссылки одну за другой далеко вниз. В разных группах методично продвигали разных кандидатов.

Как нетрудно догадаться, участники эксперимента в основном читали материалы под верхними заголовками с первой страницы – как говорится в бородатом анекдоте из интернета, проще всего спрятать труп на второй странице результатов поиска в Google. Вряд ли кто-нибудь обратил внимание на самые нижние строки в перечне ссылок. Но даже сам Эпштейн поразился тому, в какой степени целенаправленный отбор информации повлиял на выбор добровольцев. Уже через несколько минут, проведенных на сайте, аж на 12 % больше респондентов, отвечая на вопрос, кому они отдали бы свой голос, выбирали ставленника системы Kadoodle.

В 2015 году, в интервью журналу Science, Эпштейн объяснил результаты эксперимента: “Мы ждем от поисковой системы разумного выбора. Люди рассуждают так: «Да, перекосы есть, это говорит о том, что… поисковик делает свое дело»”. При том огромном объеме информации, который мы черпаем из интернета, еще больше тревожит искренняя убежденность многих социально активных граждан в том, будто они высказывают собственное мнение. “Если люди не замечают, что ими манипулируют, им кажется, что свежие идеи пришли им в голову независимо ни от чего”, – написал Эпштейн в своей статье[28]28
  Epstein and Robertson, The search engine manipulation effect (SEME).


[Закрыть]
.

Безусловно, Kadoodle – не единственная программа, которой можно вменить в вину подспудное манипулирование политическим выбором людей. В главе “Персональные данные” мы еще вернемся к этой теме, а сейчас для нас важен следующий вывод из описанного эксперимента: мы полагаем, что в большинстве случаев алгоритмы оказываются правы. Мы уже согласны с тем, что их решение всегда приоритетно[29]29
  Linda J. Skitka, Kathleen Mosier and Mark D. Burdick, Accountability and automation bias, International Journal of Human – Computer Studies, vol. 52, 2000, pp. 701–717, http://lskitka.people.uic.edu/IJHCS2000.pdf.


[Закрыть]
. Еще чуть-чуть, и мы перестанем даже осознавать, насколько мы им доверяем.

Сплошь и рядом алгоритмы предоставляют нам удобный и авторитетный источник информации. Предлагают простой способ переложить свою ответственность на кого-то другого, и мы не задумываясь соглашаемся на кратчайшие пути. Кто станет каждый раз докапываться до дальних ссылок на второй странице в Google и критически осмысливать все предложения поисковика? Кто станет шарить по сайтам всех авиакомпаний, чтобы посмотреть, действительно ли Skyscanner нашел самые дешевые варианты? Или, вооружившись линейкой и картой, проверять, нет ли еще более короткой дороги, чем выбирает GPS? Уж точно не я.

Однако надо понимать, где проходит грань. Потому что одно дело – доверять программе, которая обычно нас не подводит. Совсем другое – довериться той, про которую мало что толком известно.

Искусственный интеллект против естественной глупости

В 2012 году, в штате Айдахо, некоторым инвалидам сообщили, что их исключили из программы бесплатного медицинского обслуживания[30]30
  KW v. Armstrong, US District Court, D. Idaho, 2 May 2012, https://scholar.google.co.uk/scholar_case?case=17062168494596747089&hl=en&as_sdt=2006.


[Закрыть]
. Несмотря на то, что все они имели право на льготы, власти без предупреждения сократили их пособие на 30 %[31]31
  Jay Stanley, Pitfalls of Artificial Intelligence Decision making Highlighted in Idaho ACLU Case, American Civil Liberties Union, 2 June 2017, https://aclu.org/blog/privacy-technology/pitfalls-artificial-intelligence-decisionmaking-highlighted-idaho-aclu-case.


[Закрыть]
, и инвалидам пришлось самим изыскивать средства на оплату услуг по уходу. Это было вовсе не политическое решение, а результат применения нового “инструмента бюджетного регулирования”, взятого на вооружение Министерством здравоохранения и социальной помощи штата Айдахо – компьютерной программы для автоматического расчета пособий для каждого отдельно взятого гражданина[32]32
  K. W. v. Armstrong, Leagle.com, 24 March 2014, https://www.leagle.com/decision/infdco20140326c20.


[Закрыть]
.

Однако рекомендации программы выглядели довольно нелогично. Человеку непосвященному показалось бы, что цифры взяты с потолка. Одним дали больше денег, чем в предыдущие годы, а другим урезали пособия на десятки тысяч долларов, и для того чтобы платить за обслуживание в лечебных учреждениях, кому-то, возможно, пришлось бы продать свой дом[33]33
  Ibid.


[Закрыть]
.

Люди не могли взять в толк, почему им сократили пособия и как справиться с новыми трудностями, поэтому обратились за помощью в Американский союз защиты гражданских свобод (ACLU). В 2017 году ситуацию прокомментировал в своем блоге директор по юридическим вопросам отделения в Айдахо Ричард Эппинк: “Я тогда подумал, мы просто попросим штат объяснить, почему вдруг так сильно уменьшились суммы выплат”[34]34
  Stanley, Pitfalls of Artificial Intelligence Decision-making.


[Закрыть]
. В действительности же для выяснения причин произошедшего потребовалось четыре года, четыре тысячи жалоб и групповой иск о возмещении ущерба[35]35
  ACLU, Ruling mandates important protections for due process rights of Idahoans with developmental disabilities, 30 March 2016, https://aclu.org/news/federal-court-rules-against-idaho-department-health-and-welfare-medicaid-class-action.


[Закрыть]
.

Для начала Эппинк и его помощники попробовали разобраться в том, как именно работает алгоритм, однако люди, отвечавшие за программу медицинской помощи нуждающимся “Медикейд”, отказались пояснить расчеты. Они сослались на “коммерческую тайну” и запрет на открытый доступ к использованному программному обеспечению[36]36
  Stanley, Pitfalls of Artificial Intelligence Decision-making.


[Закрыть]
. К счастью, судью, который вел дело, такая мотивировка не устроила. Инструмент бюджетного регулирования, оказавший столь сильное влияние на жизнь простых американцев, был предъявлен и оказался вовсе не высокоразвитым ИИ и не искусно оформленной математической моделью, а банальной таблицей в формате Excel[37]37
  Ibid.


[Закрыть]
.

По-видимому, расчеты были выполнены на основе архивных данных, но из-за чудовищного количества ошибок и программных сбоев эти базы данных большей частью потеряли всякий смысл[38]38
  Ibid.


[Закрыть]
. Хуже того, когда сотрудники ACLU тщательно проанализировали уравнения, выяснилось, что “способ составления самих формул содержал принципиальные статистические ошибки”. Инструмент бюджетного регулирования исправно выдавал непредсказуемые результаты для огромного множества людей. Алгоритм – если он вообще заслуживал такого названия – оказался настолько негодным, что суд признал его противоречащим Конституции[39]39
  Ibid.


[Закрыть]
.

Тут надо выделить две линии неверных действий человека. Во-первых, кто-то заполнил эту бессмысленную таблицу, а во-вторых, кто-то другой наивно поверил в истинность данных. В сущности, “программа” выражала собой закодированный непрофессионализм. Но почему же люди, которые работали на государство, так рьяно защищали откровенно плохой продукт?

Вот что думает по этому поводу Эппинк:


Такая тенденция прослеживается всегда, когда дело касается результатов, полученных с помощью компьютера, – мы не подвергаем их сомнению. Если компьютер что-то рассчитывает – если есть статистик, который выводит некую формулу на основе неких данных, – мы просто верим его формуле и не спрашиваем: мол, погодите-ка, как это все работает?[40]40
  Ibid.


[Закрыть]


Я отлично понимаю, что не все любят на досуге возиться с математическими формулами, вникая в их суть, – хотя я обожаю это занятие. Но, тем не менее, Эппинк поднимает вопрос первостепенной важности – о нашей готовности принимать выводы компьютера за чистую монету, не вникая в его тайную жизнь.

Я математик, и за годы работы с данными и программами я пришла к убеждению, что существует единственный путь объективно оценить надежность алгоритма – докопаться до принципиальных основ его работы. Мой опыт говорит, что алгоритмы во многом схожи с фокусами иллюзионистов. Сперва они и впрямь кажутся непостижимыми, но когда понимаешь, как это сделано, чары рассеиваются. Нередко за внешней сложностью скрывается что-то до смешного примитивное – или настораживающе легкомысленное. В следующих главах я постараюсь дать вам представление о невидимых глазу особенностях алгоритмов, которые мы будем обсуждать. Пусть этих знаний будет маловато для того, чтобы самостоятельно произвести расчеты, но для понимания процесса – достаточно.

Однако даже самые въедливые математики порой вынуждены верить алгоритму “на слово”. Например, потому что проверка его деятельности практически невыполнима, как в случае со Skyscanner и поисковиком Google. Или программа может оказаться “засекреченной”, как алгоритм бюджетного регулирования в Айдахо и кое-какие другие программы, которые нам встретятся. Бывает и так, что попросту невозможно проследить логические связки в алгоритме – например, в некоторых системах машинного обучения.

Иногда мы будем вынуждены передавать управление “незнакомцу”, даже зная, что алгоритм может ошибиться. Нам придется сопоставлять собственное мнение с мнением машины. И если мы решим, что следует доверять не расчетам, а нашей интуиции, нам понадобится отвага, чтобы настоять на своем.

Когда нельзя уступать

Офицер Советской армии Станислав Петров отвечал за мониторинг системы предупреждения о ракетном нападении, которая охраняла воздушное пространство СССР. В том случае, если компьютер укажет на какие-либо признаки атаки со стороны США, Петров обязан был незамедлительно доложить командованию[41]41
  Kristine Phillips, The former Soviet officer who trusted his gut – and averted a global nuclear catastrophe, Washington Post, 18 Sept. 2017, https://washing-tonpost.com/news/retropolis/wp/2017/09/18/the-former-soviet-officer-who-trusted-his-gut-and-averted-a-global-nuclear-catastrophe/?utm_term=.6546e0f06cce.


[Закрыть]
.

26 сентября 1983 года он заступил на дежурство, и вскоре после полуночи взвыли сирены. Одна только мысль о таком сигнале тревоги наводила ужас: советские спутники засекли вражескую ракету, направлявшуюся к территории СССР. Холодная война была в разгаре, поэтому удар казался вполне вероятным, однако что-то заставило Петрова повременить с докладом. Он не был уверен в безусловной правоте алгоритма. Компьютер зафиксировал всего лишь пять запусков – в столь нерешительных действиях США не было никакой логики[42]42
  Интервью Станислава Петрова Павлу Аксенову. “СССР – США: 23 минуты на грани Апокалипсиса”, BBC, https://bbc.com/russian/multimedia/2013/09/130925_v_petrov_anno.


[Закрыть]
.

Петров замер в своем рабочем кресле. От него зависело, рапортовать о нападении и почти наверняка развязать мировую ядерную войну, или нарушить протокол и выждать, хотя он понимал, что с каждой секундой у руководства его страны остается все меньше времени на ответный удар.

Нам страшно повезло, потому что Петров выбрал второй вариант. Он не мог знать наверняка, что сигнал тревоги прозвучал по ошибке, но через двадцать три минуты (должно быть, они показались ему целой вечностью), когда стало ясно, что на советскую землю не упала ни одна боеголовка, он наконец убедился в своей правоте. Программа дала сбой.

Если бы система работала абсолютно автономно, не имея над собой такого контролера, как Станислав Петров, мировая история пошла бы совсем по другому сценарию. Надо думать, Москва отреагировала бы адекватно (как она полагала бы), и началась бы полномасштабная ядерная война. Из этого эпизода мы должны вывести мораль: в таких процессах ключевую роль играет человеческий фактор; избежать ошибки можно только тогда, когда человек видит указания алгоритма и может наложить вето раньше, чем будет принято решение.

Ведь только люди способны ощутить на себе весь груз ответственности за свои действия. Имей программа прямую связь с Кремлем, она ни на миг не задумалась бы о последствиях своего решения. А что же Петров? “Я понимал отлично, что меня никто не поправит”[43]43
  Там же.


[Закрыть]
.

Одна беда: на человека тоже не всегда можно положиться. Иногда люди берут власть в свои руки и правильно делают – как это сделал Станислав Петров. Но зачастую внутреннее чувство лучше подавить.

Вот вам еще один пример на тему безопасности – слава богу, в этой сфере люди редко меняют решения компьютеров, не имея оснований, и все же именно это произошло в самом большом английском парке аттракционов Alton Towers, перед той памятной страшной аварией на горках Smiler[44]44
  Stephen Flanagan, Re: Accident at Smiler Rollercoaster, Alton Towers, 2 June 2015: Expert’s Report, prepared at the request of the Health and Safety Executive, Oct. 2015, http://chiark.greenend.org.uk/~ijackson/2016/Expert%20witness%20report%20from%20Steven%20Flanagan.pdf.


[Закрыть]
.

В июле 2015 года двум инженерам поручили исправить неполадку в механизме аттракциона. Они устранили неисправность и для проверки запустили по трассе пустую вагонетку – но не обратили внимания на то, что она не вернулась назад. Почему-то она снова скатилась вниз на подъеме и застряла на полпути.

Тем временем операторы, обслуживающие посетителей, вывели дополнительную вагонетку, чтобы сократить растущую очередь, но об этом инженеры тоже не знали. Получив из операторской разрешение на пуск, сотрудники разрешили довольным пассажирам занять места, закрыли рамы безопасности и отправили первый состав по рельсам, ничего не зная о застрявшей прямо на пути вагонетке, которую ранее запустили инженеры.

По счастью, проектировщики аттракциона предусмотрели такие ситуации, и системы безопасности сработали в штатном режиме. Чтобы не произошло неминуемого столкновения, поезд остановился на вершине первого подъема, а в операционную был подан сигнал тревоги. Однако инженеры, уверенные в том, что они все починили, подумали, что автоматическая система тревоги включилась по ошибке.

Не так-то просто было переупрямить программу – чтобы вновь запустить состав, два человека должны были одновременно нажать кнопки. Они произвели необходимые действия, и полностью загруженная вагонетка покатилась вниз, прямо к другой, стоявшей на ее пути. Столкновение было кошмарным. Несколько человек получили тяжелейшие травмы, а двум совсем юным девушкам пришлось ампутировать ноги.

И трагическое происшествие в парке Alton Towers, и поступок Станислава Петрова, когда речь шла о жизни и смерти, показывают нам всю глубину проблемы выбора. За кем – или за чем – должно оставаться последнее слово в споре о власти между человеком и машиной?[45]45
  Последовательное игнорирование предупреждений автоматической системы безопасности также явилось одной из причин аварии на Чернобыльской АЭС в 1986 г. (Прим. науч. ред.)


[Закрыть]

Борьба за власть

Этот спор начался не сегодня и не вчера. В 1954 году профессор клинической психологии Миннесотского университета Пол Мил опубликовал работу под названием “Клинический и статистический прогнозы” и, решительно заняв крайнюю позицию, взбудоражил целое поколение людей.

В этой книге Мил провел систематическое сравнение деятельности людей и машин на примерах прогнозирования всего на свете, от успеваемости учеников до психического состояния пациентов, и пришел к выводу, что математические модели, независимо от уровня их сложности, почти наверняка дадут более точный ответ, чем люди.

С тех пор, в течение полувека, открытия Мила подтвердились множеством других исследований. Если от вас требуется рассчитать неважно что – медицинский прогноз или возможные объемы продаж, количество попыток самоубийств или степень удовлетворенности карьерным ростом – или дать оценку чему угодно, от годности к военной службе до перспектив выполнения учебного плана, смело ставьте на алгоритм[46]46
  Paul E. Meehl, Clinical versus Statistical Prediction: A Theoretical Analysis and a Review of the Evidence (Minneapolis: University of Minnesota, 1996; first publ. 1954), http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.693.6031&rep=rep1&type=pdf.


[Закрыть]
[47]47
  William M. Grove, David H. Zald, Boyd S. Lebow, Beth E. Snitz and Chad Nelson, Clinical versus mechanical prediction: a meta-analysis, Psychological Assessment, vol. 12, no. 1, 2000, p. 19.


[Закрыть]
. Машина тоже немного промахнется, но если позволить человеку отвергать ее решения, ошибки будут еще более грубыми.[48]48
  Любопытный факт: в конце 1950-х и в 1960-х годах цикл исследований в области “диагностики” (словечко не мое – так выразились авторы) гомосексуальности послужил иллюстрацией к редкому исключению из правила превосходства алгоритмов. В данном случае люди дали гораздо более точные оценки и обошли машину по всем показателям – по-видимому, то, что касается сугубо человеческой природы, невозможно адекватно описать с помощью цифр и математического аппарата.


[Закрыть]

Наверное, в этом нет ничего удивительного. Мы не созданы для вычислений. Мы не предполагаем, что в супермаркете отряд кассиров примется разглядывать наши покупки, пытаясь определить их стоимость. Мы позволяем простейшей программе сосчитать все за нас. И в большинстве случаев мы только выиграем, если предоставим это машине. Как шутят летчики, лучший экипаж состоит из троих членов – пилота, компьютера и собаки. Компьютер управляет самолетом, пилот кормит собаку, а собака кусает пилота, если тот попробует прикоснуться к компьютеру.

Но отношения с машинами у нас немного странные. Мы доверчивы как дети, если ничего не понимаем, и в то же время у нас есть отвратительная привычка вмешиваться в работу машины и даже полностью игнорировать ее и полагаться на собственные неверные суждения, если нам известно, что она может ошибиться. Специалисты называют это неприятием алгоритмов. К ошибкам машин люди относятся менее снисходительно, чем к своим, даже если их собственные ошибки гораздо страшнее.

Это явление не раз воспроизводилось в разных экспериментах[49]49
  Berkeley J. Dietvorst, Joseph P. Simmons and Cade Massey, Algorithmic aversion: people erroneously avoid algorithms after seeing them err, Journal of Experimental Psychology, Sept. 2014, http://opim.wharton.upenn.edu/risk/library/WPAF201410-AlgorithmAversion-Dietvorst-Simmons-Massey.pdf.


[Закрыть]
, да вы и сами заметите у себя такое же свойство. Когда приложение в телефоне утверждает, что дорога займет больше времени, чем мне кажется, я уверена, что знаю лучше – хотя, скорее всего, рискую опоздать. Все мы хоть раз да обозвали своего голосового помощника идиотом, почему-то забывая в этот момент, что устройство, которое мы держим в руке, создано благодаря фантастическому развитию современных технологий. И поначалу, маясь в пробках под руководством пока еще нового для меня навигационного приложения Waze, я не раз убеждала сама себя, что окольный путь был бы короче указанного маршрута – и почти всегда была неправа. Сейчас я пришла к выводу, что навигатору надо верить и, подобно Роберту Джонсу с его BMW, послушно поворачиваю, куда велит GPS, – но, думаю, я бы все-таки пресекла попытку загнать меня на край обрыва.

Категоричность в эпоху высоких технологий (либо алгоритмы всемогущи, либо абсолютно бесполезны) может привести к нежелательным последствиям. Если мы хотим использовать технику с наибольшей отдачей, нам придется выработать привычку к объективности. Мы должны учесть ошибку Гарри Каспарова и признать свои слабости, научиться контролировать свои спонтанные реакции и более осознанно относиться к программам, с которыми мы имеем дело. С другой стороны, нельзя смотреть на программы снизу вверх, надо анализировать их чуть более придирчиво и задумываться о том, справятся ли они с поставленной задачей. Только так можно понять, заслуживают ли они той власти, которую им дали.

К сожалению, все это легче сказать, чем сделать. Зачастую мы почти не в силах повлиять на могущество и радиус действия даже тех алгоритмов, которые непосредственно затрагивают нашу жизнь.

Особенно это касается тех программ, что оперируют самым главным в наше время товаром – данными. Повсюду в интернете нас преследуют безмолвные алгоритмы – они собирают информацию о нас, вторгаются в наше личное пространство, составляют на нас характеристики, – и ничто не мешает им незаметно влиять на наше поведение. Последствия гремучей смеси из неправомочно присвоенной власти, влияния и необоснованного доверия могут коренным образом изменить все наше общество.

Персональные данные

В 2004 году, вскоре после того, как Марк Цукерберг создал Facebook, между ним и его другом произошел такой обмен сообщениями:


Цук: так что если тебе понадобится инфа о ком-нибудь в Гарварде

Цук: только скажи

Цук: у меня больше 4000 имейлов с фотками и адресами (…)

[Имя друга скрыто]: что? откуда ты все это взял?

Цук: сами дали

Цук: не знаю, зачем

Цук: “доверяют мне”

Цук: дебилы[50]50
  Nicholas Carlson, Well, these new Zuckerberg IMs won’t help Facebook’s privacy problems, Business Insider, 13 May 2010, http://businessinsider.com/well-these-new-zuckerberg-ims-wont-help-facebooks-privacy-problems-2010-5? IR=T.


[Закрыть]


В свете связанного с Facebook скандала 2018 года журналисты не раз цитировали эти реплики, намекая на макиавеллиевский подход компании к принципам конфиденциальности личных данных. Лично я думаю, что хвастливые комментарии девятнадцатилетнего парня не стоит воспринимать чересчур серьезно. Но также я думаю, что Цукерберг ошибался. Люди рассказывали ему о себе не просто так. Это был обмен. За свои анкетные данные они получали доступ к программе, которая позволяла им легко и быстро переписываться с друзьями и родственниками, их объединяло общее жизненное пространство. Это была их личная сеть на бескрайних просторах Всемирной – паутины. Не знаю, как вы, а я тогда была уверена, что это честная сделка.

В этой логике есть одно “но”: мы не всегда отдаем себе отчет в том, к чему в долгосрочной перспективе может привести такой обмен. Далеко не всегда очевидно, что дает информация о нас, иначе говоря, насколько она ценна как исходный материал для умной программы. Или наоборот – насколько дешево нас купили.


Страницы книги >> Предыдущая | 1 2 3 4 5 | Следующая
  • 0 Оценок: 0

Правообладателям!

Данное произведение размещено по согласованию с ООО "ЛитРес" (20% исходного текста). Если размещение книги нарушает чьи-либо права, то сообщите об этом.

Читателям!

Оплатили, но не знаете что делать дальше?


Популярные книги за неделю


Рекомендации