Автор книги: Эрик Тополь
Жанр: Прочая образовательная литература, Наука и Образование
Возрастные ограничения: +12
сообщить о неприемлемом содержимом
Текущая страница: 6 (всего у книги 27 страниц) [доступный отрывок для чтения: 9 страниц]
В табл. 4.1 и на рис. 4.3 представлен глоссарий ключевых терминов, которые я буду использовать на протяжении всей книги. Однако есть один термин, который я хотел бы выделить особо, потому что он очень важен и потому что до сих пор идут споры о его точном смысле. Я уже несколько раз использовал слово «алгоритм», описывая проекты AliveCor. Но что же это такое? Я сам, сторонник максимального упрощения, всегда думал, что алгоритм – это принцип «если мы сделаем то, получим это». Но поскольку эта книга посвящена, строго говоря, именно алгоритмической медицине и ее значению, то нам придется несколько расширить понятие алгоритма. В своей книге «Верховный алгоритм»[89]89
Домингос П. Верховный алгоритм. Как машинное обучение изменит наш мир. – М.: Манн, Иванов и Фербер, 2016.
[Закрыть] мой друг Педро Домингос, профессор информатики Вашингтонского университета, описал алгоритм как «определенную последовательность инструкций, диктующую компьютеру его действия» и особо подчеркивает, что «у любого алгоритма есть вход и выход»[90]90
Domingos, P., The Master Algorithm. 2018. New York: Basic Books.
[Закрыть]. Это простое и довольно широкое определение, которое должно подразумевать нечто основополагающее, вроде вбивания чисел в калькулятор. Но Домингос идет дальше: «Если все алгоритмы вдруг перестанут работать, настанет конец света – такого, каким мы его знаем». Очевидно, что алгоритм – нечто большее, чем «если мы сделаем то, получим это»!
Массимо Мадзотти, профессор Калифорнийского университета в Беркли, рассуждает о понятии алгоритма еще более подробно, включая в определение ряд возможностей современного искусственного интеллекта.
«Лаконичные определения в настоящее время, впрочем, исчезли. Мы редко используем слово “алгоритм” для обозначения исключительно набора инструкций. Скорее, этим словом теперь обозначают программу, полностью управляющую работой конкретной физической машины, а также воздействующую и на другие системы. Алгоритмы, таким образом, стали действующими силами, и отчасти поэтому они породили столько метафор, заставляющих задуматься. В наше время алгоритмы создают вещи. Они определяют важные аспекты нашей социальной реальности. Они порождают новые формы субъектности и новые общественные отношения. Алгоритмы помогают миллиардам людей попадать именно туда, куда они хотят попасть. Они освобождают нас от перебирания множества несущественных результатов. Они управляют автомобилями. Они производят товары. Они решают, платежеспособен ли клиент и стоит ли давать ему кредит. Они покупают и продают акции, формируя всемогущие финансовые рынки. Они могут даже проявлять способности к творчеству. В самом деле, по мнению инженера и писателя Кристофера Стейнера, они уже сочиняют симфонии, “так же берущие за душу, как симфонии, сочиненные Бетховеном”[91]91
Mazzotti, M., “Algorithmic Life,” Los Angeles Review of Books. 2017.
[Закрыть]».
В книге «Homo Deus» Юваль Ной Харари придает алгоритмам первостепенное значение и приводит одно из самых широких его определений – на уровне организмов и человека, – какие мне только приходилось встречать.
«Сейчас считается истиной в последней инстанции, что организмы – это алгоритмы, а алгоритмы могут быть представлены математическими формулами. […] Если мы хотим осмыслить нашу жизнь и наше будущее, то во что бы то ни стало должны разобраться в том, что такое алгоритм и как алгоритмы связаны с эмоциями. […] Эмоции – это биохимические алгоритмы, которые насущно необходимы для выживания и воспроизводства всех млекопитающих. […] За 99 % наших решений, включая жизненно важные (касающиеся выбора супруга, профессии, места жительства), отвечают высокоточные алгоритмы, которые мы называем чувствами, эмоциями и желаниями»[92]92
Harari, Y. N., Homo Deus. 2016. New York: HarperCollins, p. 348.
[Закрыть].
Харари называет эту веру в мощь алгоритмов «датаизмом» и весьма мрачно смотрит на будущее, причем заходит в своем пессимизме так далеко, что утверждает: «Homo sapiens – отживший, выходящий из употребления алгоритм»[93]93
Там же.
[Закрыть].
Достаточно трех источников для того, чтобы создать карту, по которой можно ориентироваться. (Я буду придерживаться только одного определения относительно всех других терминов, приведенных в табл. 4.1.) Однако, как мне думается, все вместе они хорошо обрисовывают широту, яркость и важность самой идеи алгоритма. Полезно также думать об алгоритмах как о феноменах, существующих в континууме, протянувшемся от алгоритмов, управляемых исключительно людьми, до алгоритмов, которые управляются исключительно машинами, – причем глубокое обучение на этом континууме занимает его дальний «машинный» отрезок[94]94
Beam, A. L., and I. S. Kohane, “Big Data and Machine Learning in Health Care.” JAMA, 2018. 319 (13): pp. 1317–1318.
[Закрыть].
Таблица 4.1
Словарь
Искусственный интеллект – научно-техническое направление, занимающееся созданием мыслящих машин, обладающих способностью достигать тех же целей, что и человек, с помощью комплекса разнообразных технологий
Нейронная сеть (НС), Neural Network (NN) – программные конструкции, смоделированные по образу и подобию пластичных нейронов головного мозга и способные работать без жестких человеческих инструкций
Глубокое обучение – направление в машинном обучении, позволяющее программному обеспечению работать на основе самостоятельно обучающихся алгоритмов и обработке многоуровневых наборов данных
Машинное обучение – способность компьютеров обучаться без явного программирования с помощью 15 различных методик, таких как «метод случайного леса», байесовские сети, метод опорных векторов. Применение этих систем позволяет компьютерным алгоритмам обучаться на примерах и опыте (массивах данных), а не с использованием предопределенных методов, основанных на строгих правилах
Обучение с учителем – оптимизирующий процесс, построенный по методу проб и ошибок и основанный на маркированных (помеченных) данных, а также на сравнении выходов алгоритмов с правильными выходами в процессе обучения
Обучение без учителя – учебные образцы не отмечаются человеком; алгоритм, выявляя закономерности, обучается сам
Сверточная нейронная сеть (Convolutional Neural Network (CNN)) – использование принципа свертывания, математической операции, которая использует две функции для создания третьей: вместо того, чтобы перебирать весь набор данных, его разбивают на взаимно перекрывающиеся фрагменты, на которых работают простые, объединенные нейронные сети; систему по большей части используют для распознавания образов
Обработка естественного языка (Natural-Language Processing (NLP)) – попытка машинного «понимания» речи и письменного языка в том виде, в каком их понимают люди
Генеративно-состязательная сеть (Generative Adversarial Networks (GAN)) – пара совместно обучающихся нейронных сетей, одна порождающая, а вторая различающая, причем первая генерирует образы, а вторая пытается отличить правильные («подлинные») образы от неправильных
Обучение с подкреплением – тип машинного обучения, при котором фокус смещается на абстрактные цели или на принятие решения; эти технологии используются для обучения машин действиям в реальном мире
Рекуррентная нейронная сеть (Recurrent Neural Network (RNN)) – сеть, предназначенная для обработки последовательных входов, таких как речь или письменный язык; эти системы обрабатывают последовательности входа по одному элементу за раз, поочередно
Метод обратного распространения ошибки – подход, призванный указать, как машина должна изменить свои внутренние параметры, которые используются для вычисления представлений в каждом слое из представлений предыдущего слоя, пропуская значения назад по сети: так модифицируется работа синапсов, и сигналы автоматически направляются обратно по сети для того, чтобы отрегулировать и исправить весовые значения
Обучение признакам – совокупность методов, которые позволяют машине, пользуясь необработанными данными, автоматически распознавать признаки, необходимые для детектирования или классификации
Перенос обучения – способность искусственного интеллекта обучаться на примере решения различных других задач и применять предыдущие знания к решению принципиально новых задач
Общий (сильный) искусственный интеллект – решение широкого круга задач, включая чисто человеческие задачи, без применения эксплицитных программ
Источник: Artificial Intelligence and Life in 2030, S. Panel, ed. (Stanford, CA: Stanford University, 2016); J. Bar, “Artificial Intelligence: Driving the Next Technological Cycle,” in Next Generation (Zurich: Julius Baer Group, 2017); Choller, E., Deep Learning with Python (Shelter Island, New York; Manning, 2017); T. L. Fonseca, “What’s Happening Inside the Convolutional Neural Network? The Answer is Convolution,” buZZrobot (2017); A. Geitgey, “Machine Learning is Fun! Part 3: Deep Learning and Convolutional Neural Networks,” Medium (2016); Y. LeCun, Y. Bengio and G. Hinton, “Deep Learning,” Nature (2015): 521 (7553), 436–444; R. Raicea, “Want to Know How Deep Learning Works? Here’s a Quick Guide for Everyone,” Medium (2017); P. Voosen, “The AI Detectives,” Science (2017): 357 (6346), 22–27.
Рис. 4.3. Схематическое изображение трех типов глубокого обучения. Источник: с изменениями из: G. Choy, “Current Applications and Future Impact of Machine Learning in Radiology,” Radiology (2018): 318–328.
Краткая история
При всей той шумихе, которая сопровождает ИИ в СМИ, можно легко вообразить, что это совершенно новое изобретение, хотя концептуально оно зародилось больше 80 лет назад. В 1936 г. Алан Тьюринг опубликовал статью о мощных автоматизированных интеллектуальных системах – об универсальной вычислительной машине – под заголовком «О вычислимых числах применительно к проблеме разрешения»[95]95
Turing, A. M., “On Computable Numbers with an Application to the Entscheidung-sproblem.” Proceedings of the London Mathematical Society, 1936. 42 (1): pp. 230–265. doi: 10.1112/plms/s2–42.1.230.
[Закрыть]. Я не понял ничего в уравнениях, которыми пестрит этот 36-страничный шедевр, но вынужден согласиться с выводом: «В нашем нынешнем положении приходится утверждать, что проблема разрешения не может быть решена», – причем согласиться по одной простой причине. Я до сих пор не имею ни малейшего понятия, что это такое! Следующая статья Тьюринга, опубликованная в 1950 г., рассматривается как классическая работа в области ИИ[96]96
Turing, A. M., “Computing Machinery and Intelligence.” Mind, 1950. 49: pp. 433–460. https://www.csee.umbc.edu/courses/471/papers/turing.pdf.
[Закрыть].
Спустя несколько лет после публикации статьи Тьюринга, в 1943 г., нейрофизиолог Уоррен Маккаллок и нейролингвист Уолтер Питтс опубликовали свою первую статью, где были описаны «логические единицы» и предложен термин «искусственный нейрон» – для единицы, являющейся основанием и моделью для того, что впоследствии стали называть нейронными сетями. Термин «искусственный интеллект» был придуман Джоном Маккарти в 1955 г. Вышедший в одном из номеров The New York Times за 1958 г. материал о перцептроне Фрэнка Розенблатта (кибернетической модели мозга, которую на современном языке можно было бы назвать однослойной нейронной сетью) вызвал настоящий ажиотаж. «Этот зародыш электронного компьютера, – пророчествовала газета, – сможет ходить, говорить, писать, самостоятельно размножаться и осознавать свое существование». Чуть позже, в 1959 г., Артур Самуэль впервые использовал термин «машинное обучение». Другие вехи перечислены в хронологической таблице (см. табл. 4.2).
Таблица. 4.2
Хронология искусственного интеллекта
1936 – Статья Тьюринга (Алан Тьюринг)
1943 – Искусственная нейронная сеть (Уоррен Маккаллок, Уолтер Питтс)
1955 – В обиход введен термин «искусственный интеллект» (Джон Маккарти)
1957 – Прозвучало предсказание, что через 10 лет искусственный интеллект обыграет человека в шахматы (Герберт Саймон)
1958 – Перцептрон, однослойная нейронная сеть (Фрэнк Розенблатт)
1959 – Описание машинного обучения (Артур Самуэль)
1964 – ЭЛИЗА, первый чат-бот
1964 – «Мы знаем больше, чем можем высказать» (парадокс Майкла Полани[97]97
Майкл Полани (1891–1976) – британский физик, химик и философ венгерского происхождения, один из основателей позитивизма, автор концепции «неявного знания».
[Закрыть])1969 – Сомнение в эффективности искусственного интеллекта (Марвин Минский[98]98
Марвин Минский (1927–2016) – американский специалист по искусственному интеллекту, соавтор книги «Перцептроны» (с С. Пейпертом), содержащей критику исследований в области искусственных нейронных сетей.
[Закрыть])1986 – Многослойная нейронная сеть. ГНС (Джеффри Хинтон)
1989 – Сверточная нейронная сеть (Ян Лекун)
1991 – Обработка естественных языков в нейронных сетях (Зепп Хохрайтер, Юрген Шмидхубер)
1997 – Deep Blue обыгрывает в шахматы человека (Гарри Каспарова)
2004 – Создание самоуправляемого автомобиля, пустыня Мохаве (конкурс DARPA)
2007 – Запуск проекта ImageNet
2011 – IBM выигрывает в игре Jeopardy!
2011 – Нейронные сети, распознающие речь (Microsoft)
2012 – Создание разновидности ImageNet в Университете Торонто; система распознала кошку на видео (Google Brain, Эндрю Ын, Джефф Дин)
2014 – Создание системы распознавания лиц (DeepFace, Facebook)
2015 – DeepMind против Atari (Дэвид Сильвер, Демис Хассабис)
2015 – Первая конференция по вопросам рисков, связанных с использованием искусственного интеллекта (Макс Тегмарк)
2016 – AlphaGo против Go (Дэвид Сильвер, Демис Хассабис)
2017 – AlphaGo Zero против Go (Дэвид Сильвер, Демис Хассабис)
2017 – Libratus против игроков в покер (Ноам Браун, Туомас Сандхольм)
2017 – Создание института изучения ИИ AINow
Эти технологии, на сегодняшний день общепризнанные, в первые десятилетия существования ИИ вовсе не были его сутью и основанием. Отрасль развивала так называемые экспертные системы, основанные на логике, но в конце концов специалисты по информационным технологиям впали в уныние, поняв, что этот инструмент не работает. Это привело к застою, серьезному сокращению числа работ и прекращению финансирования, и наступила «зима искусственного интеллекта», продолжавшаяся без малого 20 лет. Отрасль пробудилась от спячки, когда Рина Дехтер в 1986 г. придумала термин «глубокое обучение», который популяризировали и внедрили в научный лексикон Джеффри Хинтон, Ян Лекун и Джошуа Бенджо. К концу 1980-х ученые обратили пристальное внимание на многослойные, или глубокие, нейронные сети (DNN), в науку вернулся интерес к искусственному интеллекту. Основополагающая статья Дэвида Румельхарта и Джеффри Хинтона об обратном распространении ошибок, опубликованная в журнале Nature в 1986 г., представила алгоритмический метод автоматического исправления ошибок в нейронных сетях, что подстегнуло интерес к теме[99]99
Rumelhart, D. E., G. Hinton, and R. J. Williams, “Learning Representations by Back-Propagating Errors.” Nature, 1986. 323: pp. 533–536.
[Закрыть]. Оказалось, что это и есть суть и основа глубокого обучения, регулировка весов нейронов предыдущего слоя для достижения максимальной точности на выходе. Как выразился Ян Лекун, проходивший постдокторантуру у Хинтона после защиты диссертации, «его статья стала основой для второй волны интереса к нейронным сетям»[100]100
Parloff, R., “Why Deep Learning Is Suddenly Changing Your Life,” in Fortune. 2016.
[Закрыть]. Именно Яна несколько лет спустя начнут называть отцом сверточной нейронной сети, которая до сих пор активно используется для глубокого обучения распознаванию изображений.
Широкая публика не особенно интересовалась историей создания искусственного интеллекта до 1997 г., когда машина Deep Blue, созданная IBM, выиграла в шахматы у Гарри Каспарова. На обложке журнала Newsweek красовалось название статьи об этом матче: «Последний оплот мозга». Несмотря на то, что название машины как бы намекает на использование алгоритмов глубоких нейронных сетей (Deep Blue – «темно-синий», дословно «глубокий синий»), внутри у нее был всего лишь эвристический алгоритм, работавший по строгим правилам. Тем не менее искусственный интеллект впервые одолел чемпиона мира по шахматам за доской. К сожалению, эта игра была подана в таком ключе, будто началась война машин против людей, – и впоследствии СМИ не раз подливали масло в огонь: взять хотя бы рассказ, опубликованный в The New Yorker в 2017 г. под названием «Искусственный интеллект против доктора медицины» (A.I. versus M.D.)[101]101
Mukherjee, S., “A. I. Versus M. D. What Happens When Diagnosis Is Automated?” The New Yorker. 2017.
[Закрыть]. С новой силой разгорелось «соперничество» между людьми и их технологиями, и без того имеющее долгую историю, начало которой было положено изобретением паровой машины и первой промышленной революцией.
В книге Гарри Каспарова «Человек и компьютер: Взгляд в будущее»[102]102
Каспаров Г. Человек и компьютер: Взгляд в будущее. – М.: Альпина Паблишер, 2018.
[Закрыть], вышедшей на два десятилетия позже, можно найти поразительное личное впечатление об этом поворотном пункте в истории искусственного интеллекта. Через месяц после того памятного матча Каспаров рассказывал журналу Time, что ощущал на противоположной стороне стола «новый тип интеллекта». Далее он вспоминал: «Компьютеру не мешает толпа фотографов вокруг стола. Нет смысла смотреть противнику в глаза, чтобы узнать его настроение, и невозможно заметить, как рука оппонента на секунду зависает над кнопкой часов, выдавая его сомнения в правильности избранного хода. Поскольку я считаю шахматы не просто интеллектуальной, но и психологической борьбой, игра против соперника, у которого нет души, в какой-то мере выбивала меня из колеи». Мне особенно запомнились два комментария Каспарова: «Надо признаться, что я вообще не был в настроении играть» и «По крайней мере, он [Deep Blue] не радовался, обыграв меня»[103]103
Kasparov, G., Deep Thinking. vol. 1, 2017. New York: PublicAffairs.
[Закрыть]. Это будут очень важные темы в нашем обсуждении, что ИИ может (и чего не может) сделать для медицины.
Несмотря на то, что компьютер Deep Blue имел мало общего с глубоким обучением, он стал провозвестником наступления эпохи этой технологии. Когда Фэй-Фэй Ли основала ImageNet, это имело историческое значение. Эта огромная база данных из 15 млн маркированных (аннотированных вручную) изображений помогла вывести на первые роли глубокие нейронные сети как инструмент компьютерного зрения. Одновременно заработала на полную мощность система обработки естественного языка на основе DNN, запущенная компаниями Microsoft и Google. Более наглядным примером для широкой публики стала победа компьютера IBM Watson в викторине Jeopardy! над опытнейшими игроками в 2011 г. Несмотря на то, что при этом использовался довольно примитивный ИИ, который не имел никакого отношения к сетям глубокого обучения и опирался на скоростной доступ к контенту «Википедии», IBM очень умело преподнесла эту победу как триумф искусственного интеллекта.
Следующее десятилетие было ознаменовано примечательными достижениями ИИ. В 2012 г. глубокое обучение получило мощный импульс после публикации исследований Хинтона и его коллег по Университету Торонто: ученые продемонстрировали значительный прогресс в распознавании образов[104]104
Krizhevsky, A., I. Sutskever, and G. Hinton, “ImageNet Classification with Deep Convolutional Neural Networks,” ACM Digital Library. 2012: NIPS’12 Proceedings of the 25th International Conference on Neural Information Processing Systems, pp. 1097–1105.
[Закрыть]. В том же 2012 г. стал очевиден прогресс в распознавании немаркированных образов, когда команда Google Brain, возглавляемая Эндрю Ыном и Джеффом Дином, разработала систему, для функционирования которой были необходимы 100 компьютеров и 10 млн изображений, что позволяло распознавать кошек на видеороликах YouTube. По состоянию на 2014 г. точность распознавания человеческих лиц системой DeepFace от Facebook составляла 97 %. Что касается медицины, то вехой здесь стала публикация 2017 г. в Nature, в которой говорилось о диагностике рака кожи с использованием глубоких нейронных сетей: диагнозы были не менее точны, чем у опытных дерматологов, а это означало успех искусственного интеллекта в интересующей нас области[105]105
Esteva, A., et al., “Dermatologist-Level Classification of Skin Cancer with Deep Neural Networks.” Nature, 2017. 542 (7639): pp. 115–118.
[Закрыть]. Кроме того, как мы увидим, несмотря на неверное наименование и на маркетинговые ходы в связи с Deep Blue и Watson, глубокие нейронные сети и родственные им сети стали доминировать и в играх – в покере, в AlphaGo (программа для игры в го) и других играх для приставки Atari.
Глубокие нейронные сети
Сегодня ИИ толкает вперед мощный импульс, по силе сравнимый с кембрийским взрывом 500 млн лет назад, – и это связано с успехом глубоких нейронных сетей. Эпоха глубоких нейронных сетей по многим причинам не наступила бы, если бы четыре ее составляющие не захлестнули нашу жизнь, как девятый вал. Во-первых, это огромные массивы данных (те самые «большие данные») для обучения. Например, ImageNet, содержащая 15 млн маркированных изображений; огромная библиотека видео YouTube, которая увеличивается на 300 часов видео каждую минуту; собрание данных по вождению автомобилей Tesla, куда каждый час добавляются сведения об 1 млн миль дорог; собрание данных о полетах различных авиакомпаний, которое с каждым новым полетом пополняется на 500 гигабайт; библиотека Facebook, состоящая из миллиардов изображений и 4,5 млрд переводов с разных языков в день[106]106
Brynjolfsson, E., and T. Mitchell, “What Can Machine Learning Do? Workforce Implications.” Science, 2017. 358 (6370): pp. 1530–1534.
[Закрыть]. Во-вторых, это специализированные графические процессоры для обработки графической информации (Graphic Processing Units, GPU), созданные для выполнения интенсивных расчетных функций с массивно-параллельной архитектурой; эти системы впервые появились в индустрии видеоигр. Вышедшая в 2018 г. публикация об оптической дифракционной глубокой нейросети (Diffractive Deep Neural Network, DNN2) побудила Педро Домингоса сказать: «Переходим на графические процессоры. Теперь глубокое обучение можно выполнять со скоростью света»[107]107
Lin, X., et al., “All-Optical Machine Learning Using Diffractive Deep Neural Networks,” Science. 2018.
[Закрыть]. В-третьих, это облачные вычисления и возможность экономного облачного хранения даже большого количества информации. И в-четвертых, это пакеты программ с открытым исходным кодом для разработки алгоритмов с открытым исходным кодом, такие как Tensor Flow от Google, Cognitive Kit от Microsoft, CAFFE от специалистов Калифорнийского университета в Беркли, PyTorch от Facebook и Paddle от Baidu. Эти системы сделали работу с искусственным интеллектом доступной.
Глубокая нейронная сеть (см. рис. 4.4) по строению похожа на многослойный сэндвич, поставленный набок. Но слои этого сэндвича – не бекон, салатные листы и помидоры, а данные, которые перемещаются между слоями вычислений, извлекающих высокоуровневые признаки из необработанных данных сенсоров, из последовательности вычислений как она есть. Важно отметить, что эти слои задаются не человеком, они вообще скрыты от глаз пользователя и регулируются по технологии, похожей на метод обратного распространения ошибки Джеффа Хинтона, когда глубокая нейронная сеть сама взаимодействует с данными. Для примера мы воспользуемся обучением машины читать рентгенограммы грудной клетки. Основные опорные точки, на которых обучали сеть (см. рис. 4.5), – это тысячи рентгенограмм, интерпретированные опытными рентгенологами и соответствующим образом помеченные (маркированные). После обучения сеть становится пригодной для ввода в нее непомеченной рентгенограммы. Данные проходят через многочисленные скрытые слои нейронов, от 5 до 1 тыс., и каждый слой реагирует на различные признаки рентгенографического изображения (скажем, на формы теней и их края). По мере того, как изображение (распространяющиеся данные) переходит в более высокие слои, усложняются признаки и структуры. Чем глубже сеть, то есть чем больше число слоев, тем более сложный ввод сможет она интерпретировать. На верхнем слое нейроны располагают полностью дифференцированными признаками и готовы к выводу данных, то есть готовы спрогнозировать на основании обучения[108]108
LeCun, Y., Y. Bengio, and G. Hinton, “Deep Learning.” Nature, 2015. 521 (7553): pp. 436–444.
[Закрыть], что показывает рентгенограмма. Глубокие нейронные сети с их структурным остовом можно рассматривать с функциональной точки зрения как технологию общего назначения – так же как, например, паровую машину или электричество[109]109
Brynjolfsson, E. and T. Mitchell, “What Can Machine Learning Do? Workforce Implications.” Science, 2017. 358 (6370): pp. 1530–1534.
[Закрыть]. И, подобно этим технологиям, глубокие нейронные сети могут использоваться для решения самых разных проблем. Еще до попыток приложить их к медицине они нашли свое применение в четырех основных сферах: играх, изображениях, голосе/речи, а также в беспилотном вождении. Из опыта использования ИИ в каждой из этих сфер можно извлечь полезные уроки, которые помогут понять, что может дать медицине глубокое обучение.
Рис. 4.4. Архитектура глубокой нейронной сети со слоем ввода, множеством скрытых слоев и слоем вывода
Рис. 4.5. Схема глубокой сверточной нейронной сети для интерпретации рентгеновских снимков грудной клетки с последовательностью свертывающих слоев для картирования признаков, объединения и предсказания
Правообладателям!
Данное произведение размещено по согласованию с ООО "ЛитРес" (20% исходного текста). Если размещение книги нарушает чьи-либо права, то сообщите об этом.Читателям!
Оплатили, но не знаете что делать дальше?