Текст книги "Искусственный интеллект. С неба на землю"
Автор книги: Джимшер Челидзе
Жанр: Техническая литература, Наука и Образование
Возрастные ограничения: +12
сообщить о неприемлемом содержимом
Текущая страница: 3 (всего у книги 4 страниц)
Глава 3. А что может слабый ИИ и общие тренды
Слабый ИИ в прикладных задачахКак вы уже, наверно, поняли, я – сторонник использования того, что есть. Возможно, это мой опыт антикризисного управления сказывается или просто ошибочное мнение. Но тем не менее, где можно применять текущий слабый ИИ на базе машинного обучения?
Наиболее релевантными направлениями для применения ИИ с машинным обучением можно обозначить:
– прогнозирование и подготовка рекомендаций для принятия решений;
– анализ сложных данных без чётких взаимосвязей, в том числе для прогнозирования и принятия решений;
– оптимизация процессов;
– распознавание образов, в том числе изображений и голосовых записей;
– автоматизация выполнения отдельных задач, в том числе через генерацию контента.
Направление, которое на пике популярности в 2023—2024 годах, – распознавание образов, в том числе изображений и голосовых записей, и генерация контента. Именно сюда идет основная масса разработчиков ИИ и именно таких сервисов больше всего.
При этом особое внимание заслуживает связка ИИ + IoT (Интернет вещей):
– ИИ получает чистые большие данные, в которых нет ошибок человеческого фактора для обучения и поиска взаимосвязей.
– Эффективность IoT повышается, так как становится возможным создание предиктивной (предсказательной) аналитики и раннего выявления отклонений.
Ключевые тренды– Машинное обучение движется ко всё более низкому порогу вхождения.
Одна из задач, которую сейчас решают разработчики, – упрощение создания ИИ-моделей до уровня конструкторов сайтов, где для базового применения не нужны специальные знания и навыки. Создание нейросетей и дата-сайнс уже сейчас развиваются по модели «сервис как услуга», например, DSaaS – Data Science as a Service.
Знакомство с машинным обучением можно начинать с AUTO ML, его бесплатной версией, или DSaaS с проведением первичного аудита, консалтинга и разметкой данных. При этом даже разметку данных можно получить бесплатно. Всё это снижает порог вхождения.
– Создание нейросетей, которым нужно все меньше данных для обучения.
Несколько лет назад, чтобы подделать ваш голос, требовалось предоставить нейросети один-два часа записи вашей речи. Года два назад этот показатель снизился до нескольких минут. Ну, а в 2023 году компания Microsoft представила нейросеть, которой достаточно уже трех секунд для подделки.
Плюс появляются инструменты, с помощью которых можно менять голос даже в онлайн режиме.
– Создание систем поддержки и принятия решений, в том числе отраслевых.
Будут создаваться отраслевые нейросети, и всё активнее будет развиваться направление рекомендательных сетей, так называемые «цифровые советники» или решения класса «системы поддержки и принятия решений (DSS) для различных бизнес-задач».
Практический пример
Этот кейс мы рассмотрим еще не раз, так как это моя личная боль и тот продукт, над которым я работаю.
В проектном управлении существует проблема – 70% проектов либо проблемные, либо провальные.
– среднее превышение запланированных сроков наблюдается в 60% проектов, а среднее превышение на 80% от изначального срока;
– превышение бюджетов наблюдается в 57% проектов, а среднее превышение составляет 60% от изначального бюджета;
– недостижение критериев успешности – в 40% проектов.
При этом управление проектами уже занимает до 50% времени руководителей, а к 2030 году этот показатель достигнет 60%. Хотя еще в начале 20 века этот показатель был 5%. Мир становится все более изменчивым, и количество проектов растет. Даже продажи становятся все более «проектными», то есть комплексными и индивидуальными.
А к чему приводит такая статистика проектного управления?
– Репутационные потери.
– Штрафные санкции.
– Снижение маржинальности.
– Ограничение роста бизнеса.
При этом наиболее типовые и критичные ошибки:
– нечеткое формулирование целей, результатов и границ проекта;
– недостаточно проработанные стратегия и план реализации проекта;
– неадекватная организационная структура управления проектом;
– дисбаланс интересов участников проекта;
– неэффективные коммуникации внутри проекта и с внешними организациями.
Как решают эту задачу люди? Либо ничего не делают и страдают, либо идут учиться и используют трекеры задач.
При этом у обоих подходов есть свои плюсы и минусы. Например, классическое обучение дает возможность в ходе живого общения с учителем задавать вопросы и отрабатывать на практике различные ситуации. При этом оно дорого стоит и обычно не подразумевает дальнейшего сопровождения после окончания курса. Трекеры задач же, напротив, всегда под рукой, но при этом не адаптируются под конкретный проект и культуру компании, не способствуют выработке компетенций, а напротив, призваны для контроля работы.
В итоге, проанализировав свой опыт, я пришел к идее цифрового советника – искусственного интеллекта и предиктивных рекомендаций «что сделать, когда и как» за 10 минут для любого проекта и организации. Проектное управление становится доступным для любого руководителя условно за пару тысяч рублей в месяц.
В модель ИИ заложена методология управления проектами и наборы готовых рекомендаций. ИИ будет готовить наборы рекомендаций и постепенно самообучаться, находить все новые закономерности, а не привязываться к мнению создателя и того, кто будет обучать модель на первых этапах.
Глава 4. Генеративный ИИ
Что такое генеративный искусственный интеллект?Ранее мы рассмотрели ключевые направления для применения ИИ:
– прогнозирование и принятие решений;
– анализ сложных данных без чётких взаимосвязей, в том числе для прогнозирования;
– оптимизация процессов;
– распознавание образов, в том числе изображений и голосовых записей;
– генерация контента.
Направления ИИ, которые сейчас на пике популярности, – распознавание образов (аудио, видео, числа) и на их основе генерация контента: аудио, текст, код, видео, изображения и так далее. В том числе к генеративному ИИ можно отнести и цифровых советников.
Проблемы генеративного ИИПо состоянию на середину 2024 года направление генеративного ИИ нельзя назвать успешным. Так, например, в 2022 году компания OpenAI понесла убытки в размере $540 млн из-за разработки ChatGPT. А для дальнейшего развития и создания сильного ИИ потребуется еще около 100 млрд долларов. Такую сумму озвучил сам глава OpenAI. Такой же неблагоприятный прогноз на 2024 год дает и американская компания CCS Insight.
Для справки: операционные затраты Open AI составляют $700 000 в день на поддержание работоспособности чат-бота ChatGPT.
Общий тренд поддерживает и Алексей Водясов, технический директор компании SEQ: «ИИ не достигает тех маркетинговых результатов, о каких говорили ранее. Их использование ограничено моделью обучения, при этом затраты и объем данных для обучения растет. В целом же за хайпом и бумом неизбежно следует спад интереса. ИИ выйдет из фокуса всеобщего внимания так же быстро, как и вошёл, и это как раз нормальное течение процесса. Возможно, спад переживут не все, но ИИ – это действительно „игрушка для богатых“, и таковой на ближайшее время и останется». И мы согласны с Алексеем, после шумихи в начале 2023 года уже к осени наступило затишье.
Дополняет картину расследование Wall Street Journal, согласно которому, большинство ИТ-гигантов пока не научилось зарабатывать на возможностях генеративного ИИ. Microsoft, Google, Adobe и другие компании, которые вкладываются в искусственный интеллект, ищут способы заработать на своих продуктах. Несколько примеров:
– Google планирует повысить стоимость подписки на программное обеспечение с поддержкой ИИ;
– Adobe устанавливает ограничения на количество обращений к сервисам с ИИ в течение месяца;
– Microsoft хочет взимать с бизнес-клиентов дополнительные $30 в месяц за возможность создавать презентации силами нейросети.
Ну, и вишенка на торте – расчёты Дэвида Кана (David Cahn), аналитика Sequoia Capital, показывающая, что компаниям ИИ-индустрии придётся зарабатывать около $600 млрд в год, чтобы компенсировать расходы на свою ИИ-инфраструктуру, включая ЦОД. Единственный, кто сейчас хорошо зарабатывает на ИИ, – разработчик ускорителей Nvidia.
Подробно статью можно прочитать по QR-коду и гиперссылке ниже.
AI industry needs to earn $600 billion per year to pay for massive hardware spend – fears of an AI bubble intensify in wake of Sequoia report
Вычислительные мощности – одна из главных статей расходов при работе с ГИИ: чем больше запросов к серверам, тем больше счета за инфраструктуру и электроэнергию. В выигрыше только поставщики «железа» и электроэнергии. Так, Nvidia в августе 2023 года заработала около $5 млрд благодаря продажам своих ускорителей для ИИ A100 и H100 только китайскому ИТ-сектору.
На практике это можно увидеть на двух примерах.
Первый – Zoom пытается снизить затраты, используя более простой чат-бот, разработанный своими силами и требующий меньших вычислительных мощностей по сравнению с последней версией ChatGPT.
Второй – наиболее известные разработчики ИИ (Microsoft, Google, Apple, Mistral, Anthropic и Cohere) стали делать фокус на создании компактных ИИ-моделей, так как они дешевле и экономичнее.
Большие модели, например, GPT-4 от OpenAI, у которых более 1 трлн параметров и стоимость создания оценивается более 100 миллионов долларов, не имеют радикального преимущества перед более простыми решениями в прикладных задачах. Компактные модели обучаются на более узких наборах данных и могут стоить менее 10 миллионов долларов, при этом используя менее 10 миллиардов параметров, но решать целевые задачи.
Например, Microsoft представила семейство небольших моделей под названием Phi. По словам СЕО компании Сатьи Наделлы, решения модели в 100 раз меньше бесплатной версии ChatGPT, однако они справляются со многими задачами почти так же эффективно. Юсуф Мехди, коммерческий директор Microsoft, отметил, что компания быстро осознала, что эксплуатация крупных моделей ИИ обходится дороже, чем предполагалось изначально. Поэтому Microsoft начала искать более экономически целесообразные решения.
Также и Apple планирует использовать такие модели для запуска ИИ непосредственно на смартфонах, что должно повысить скорость работы и безопасность. При этом потребление ресурсов на смартфонах будет минимальным.
Сами эксперты считают, что для многих задач, например, обобщения документов или создания изображений, большие модели вообще могут оказаться избыточными. Илья Полосухин, один из авторов основополагающей статьи Google в 2017 году, касающейся искусственного интеллекта, образно сравнил использование больших моделей для простых задач с поездкой в магазин за продуктами на танке. «Для вычисления 2 +2 не должны требоваться квадриллионы операций», – подчеркнул он.
Но давайте разберем все по порядку, почему так сложилось и какие ограничения угрожают ИИ, а главное, что будет дальше? Закат генеративного ИИ с очередной ИИ-зимой или трансформация?
Ограничения ИИ, которые приводят к проблемамРанее я привел «базовые» проблемы ИИ. Теперь же давайте немного уйдем в специфику именно генеративного ИИ.
– Беспокойство компаний о своих данных
Любой бизнес стремится охранять свои корпоративные данные и любыми способами старается исключить их. Это приводит к двум проблемам.
Во-первых, компании запрещают использование онлайн-инструментов, которые располагаются за периметром защищенной сети, в то время как любой запрос к онлайн-боту – это обращение во внешний мир. Вопросов к тому, как хранятся, как защищены и как используются данные, много.
Во-вторых, это ограничивает развитие вообще любого ИИ. Все компании от поставщиков хотят ИТ-решений с ИИ-рекомендациями от обученных моделей, которые, например, предскажут поломку оборудования. Но своими данными делится не готовы. Получается замкнутый круг.
Однако тут надо сделать оговорку. Некоторые ребята уже научились размещать языковые модели уровня Chat GPT 3 – 3,5 внутри контура компаний. Но эти модели все равно надо обучать, это не готовые решения. И внутренние службы безопасности найдут риски и будут против.
– Сложность и дороговизна разработки и последующего содержания
Разработка любого «общего» генеративного ИИ – это огромные затраты – десятки миллионов долларов. Кроме того, вам нужно много данных, очень много данных. Нейросети пока обладают низким КПД. Там, где человеку достаточно 10 примеров, искусственной нейросети нужны тысячи, а то и сотни тысяч примеров. Хотя да, он может найти такие взаимосвязи, и обрабатывать такие массивы данных, которые человеку и не снились.
Но вернемся к теме. Именно из-за ограничения по данным тот же ChatGPT лучше «соображает», если с ним общаться на английском языке, а не на русском. Ведь англоязычный сегмент интернета гораздо больше, чем наш с вами.
Добавим к этому затраты на электроэнергию, инженеров, обслуживание, ремонт и модернизацию оборудования и получим те самые 700 000 $ в день только на содержание Chat GPT. Много ли компаний могут потратить такие суммы с неясными перспективами монетизации (но об этом ниже)?
Да, можно снизить затраты, если разработать модель, а затем убрать все лишнее, но тогда это будет очень узкоспециализированный ИИ.
Поэтому большинство решений на рынке по факту являются GPT-фантиками – надстройками к ChatGPT.
– Беспокойство общества и ограничения регуляторов
Общество крайне обеспокоено развитием ИИ-решений. Государственные органы во всем мире не понимают, чего ожидать от них, как они повлияют на экономику и общество, насколько масштабна технология по своему влиянию. При этом его важность отрицать нельзя. Генеративные ИИ в 2023 году наделали больше шуму, чем когда-либо. Они доказали, что могут создавать новый контент, который можно спутать с человеческими творениями: тексы, изображения, научные работы. И доходит до того, что ИИ способен за считанные секунды разработать концептуальный дизайн для микросхем и шагающих роботов.
Второй фактор – безопасность. ИИ активно используют злоумышленники для атак на компании и людей. Так, с момента запуска ChatGPT с число фишинговых атак возросло на 1265%. Или, например, с помощью ИИ можно получить рецепт изготовления взрывчатки. Люди придумывают оригинальные схемы и обходят встроенные системы защиты.
Третий фактор – непрозрачность. Как работает ИИ, не понимают порой даже сами создатели. А для столь масштабной технологии непонимание того, что и почему может сгенерировать ИИ, создает опасную ситуацию.
Четвертый фактор – зависимость от обучающих. ИИ-модели строят люди, и обучают его тоже люди. Да, есть самообучаемые модели, но будут развиваться и узкоспециализированные, а материал для их обучения будут отбирать люди.
Все это означает, что отрасль начнут регулировать и ограничивать. Как именно – пока никто не понимает. Дополним это известным письмом в марте 2023 года, в рамках которого известные эксперты по всему миру потребовали ограничить развитие ИИ.
– Недостаток модели взаимодействия с чат-ботами
Полагаю, вы уже пробовали взаимодействовать с чат-ботами и остались, мягко говоря, разочарованными. Да, классная игрушка, но что с ней делать?
Надо понимать, что чат-бот – это не эксперт, а система, которая пытается угадать, что вы хотите увидеть или услышать, и дает вам именно это.
И чтобы получить практическую пользу, вы сами должны быть экспертом в предметной области. А если вы эксперт в своей теме, нужен ли вам ГИИ? А если вы не эксперт, то вы и не получите решения своего вопроса, а значит, не будет ценности, лишь общие ответы.
В итоге мы получаем замкнутый круг – экспертам это не нужно, а любителям не поможет. Кто тогда будет платить за такого помощника? А значит, на выходе имеем дорогу игрушку.
Кроме того, помимо экспертности в теме, нужно еще знать, как правильно формулировать запрос. А таких людей вообще считанные единицы. В итоге даже появилась новая профессия – промтинженер. Это человек, который понимает, как думает машина, и может правильно составить запрос к ней. А стоимость такого инженера на рынке – около 6000 рублей в час. И поверьте, он с первого раза не подберет правильный запрос для вашей ситуации.
Нужен ли такой инструмент бизнесу? Захочет ли бизнес стать зависимым от очень редких специалистов, которые еще и стоят даже дороже программистов, ведь обычные сотрудники не извлекут из него пользы?
Вот и получается, что рынок для обычного чат-бота не просто узкий, он исчезающе мал.
– Тенденция к производству некачественного контента, галлюцинации
В статье Искусственный интеллект: помощник или игрушка? я отметил, что нейросети просто собирают данные и не анализируют факты, их связанность. То есть чего больше в интернете / базе, на то они и ориентируются. Они не оценивают написанное критически. В тоге ГИИ легко генерирует ложный или некорректный контент.
Например, специалисты инженерной школы Тандона Нью-Йоркского университета решили проверить ИИ-помощника Copilot от Microsoft с точки зрения безопасности. В итоге, они обнаружили, что примерно в 40% случаев код, сгенерированный помощником, содержит ошибки или уязвимости. Подробная статья доступна по ссылке.
Еще один пример использования Chat GPT привел пользователь на Хабре. Вместо 10 минут и простой задачи получился квест на 2 часа.
А ИИ-галлюцинации – уже давно известная особенность. Что это такое и как они возникают, можно прочитать тут.
И это хорошо, когда случаи безобидные. Но бывают и опасные ошибки. Так, один пользователь спросил у Gemini, как сделать заправку для салата. По рецепту надо было добавить чеснок в оливковое масло и оставить настаиваться при комнатной температуре.
Пока чеснок настаивался, пользователь заметил странные пузырьки и решил перепроверить рецепт. Выяснилось, что в его банке размножались бактерии, вызывающие ботулизм. Отравление токсином этих бактерий протекает тяжело, вплоть до смести.
Я и сам периодически использую ГИИ, и чаще он дает, скажем так, не совсем корректный результат. А порой и откровенно ошибочный. Нужно провести 10—20 запросов с совершенно безумной детализацией, чтобы получить что-то вменяемое, что потом все равно надо переделывать / докручивать.
То есть за ним нужно перепроверять. И снова мы приходим к тому, что нужно быть экспертом в теме, чтобы оценить корректность контента и использовать его. И порой это занимает даже больше времени, чем сделать все с нуля и самому.
– Эмоции, этика и ответственность
ГИИ без правильного запроса будет склоняться к простому воспроизведению информации или созданию контента, не обращая внимания на эмоции, контекст и тон коммуникации. А по циклу статей о коммуникации мы уже знаем, что сбой в коммуникации может произойти очень легко. В итоге мы дополнительно ко всем проблемам выше можем получить еще и огромное количество конфликтов.
Также возникают вопросы относительно возможности определения авторства созданного контента, а также прав собственности на созданный контент. Кто несет ответственность за недостоверные или вредоносные действия, совершенные с помощью ГИИ? А как доказать, что авторство лежит именно за вами или вашей организацией? Возникает потребность в разработке этических стандартов и законодательства, регулирующих использование ГИИ.
– Экономическая целесообразность
Как мы уже поняли, самим разработать генеративный ИИ высокого класса может оказаться неподъёмной задачей. И у многих возникнет идея: «А почему бы не купить „коробку“ и не разместить у себя?» Но как вы думаете, сколько будет стоить такое решение? Сколько запросят разработчики?
А главное, каких масштабов должен быть бизнес, чтобы это все окупилось?
Что же делать?Компании не собираются полностью отказываться от больших моделей. Например, Apple будет использовать ChatGPT в Siri для выполнения сложных задач. Microsoft планирует использовать последнюю модель OpenAI в новой версии Windows в качестве ассистента. При этом, тот же Experian из Ирландии и Salesforce из США, уже перешли на использование компактных моделей ИИ для чат-ботов и обнаружили, что они обеспечивают такую же производительность, как и большие модели, но при значительно меньших затратах и с меньшими задержками обработки данных.
Ключевым преимуществом малых моделей является возможность их тонкой настройки под конкретные задачи и наборы данных. Это позволяет им эффективно работать в специализированных областях при меньших затратах и проще решать вопросы безопасности. По словам Йоава Шохама (Yoav Shoham), соучредителя ИИ-компании AI21 Labs из Тель-Авива, небольшие модели могут отвечать на вопросы и решать задачи всего за одну шестую стоимости больших моделей.
– Не спешить
Ожидать заката ИИ не стоит. Слишком много в эту технологию было вложено за последние 10 лет, и слишком большим потенциалом она обладает.
Я рекомендую вспомнить о 8 принципе из ДАО Тойота, основы бережливого производства и одного из инструментов моего системного подхода: «Используй только надежную, испытанную технологию». В нем можно встретить целый ряд рекомендаций.
– Технологии призваны помогать людям, а не заменять их. Часто стоит сначала выполнять процесс вручную, прежде чем вводить дополнительное оборудование.
– Новые технологии часто ненадежны и с трудом поддаются стандартизации, а это ставит под угрозу поток. Вместо непроверенной технологии лучше использовать известный, отработанный процесс.
– Прежде чем вводить новую технологию и оборудование, следует провести испытания в реальных условиях.
– Отклони или измени технологию, которая идет вразрез с твоей культурой, может нарушить стабильность, надежность или предсказуемость.
– И все же поощряй своих людей не забывать о новых технологиях, если речь идет о поисках новых путей. Оперативно внедряй зарекомендовавшие себя технологии, которые прошли испытания и делают поток более совершенным.
Да, через 5—10 лет генеративные модели станут массовыми и доступными, достаточно умными, подешевеют и в итоге придут к плато продуктивности по хайп-циклу. И скорее всего, каждый из нас будет использовать результаты от ГИИ: написание статьей, подготовка презентаций и так до бесконечности. Но уповать сейчас на ИИ и сокращать людей будет явно избыточным.
– Повышать эффективность и безопасность
Практически все разработчики сейчас сфокусированы на том, чтобы ИИ-модели стали менее требовательными к количеству и качеству исходных данных, а также на повышении уровня безопасности – ИИ должен генерировать безопасный контент и быть устойчивым к провокациям.
– Осваивать ИИ в формате экспериментов, проведения пилотных проектов
Чтобы быть готовым к приходу действительно полезных решений, нужно следить за развитием технологии, пробовать ее, формировать компетенции. Это как с цифровизацией: вместо того, чтобы прыгать в омут с головой в дорогие решения, нужно поиграть с бюджетным или бесплатными инструментами. Благодаря этому, к моменту прихода технологии в массы:
– вы и ваша компания будете понимать, какие требования необходимо закладывать к коммерческим и дорогим решениям, и подойдёте к этому вопросу осознанно. А хорошее техническое задание – 50% успеха;
– сможете уже получить эффекты в краткосрочной перспективе, а значит, будет и мотивация идти дальше;
– команда повысит свои цифровые компетенции, что снимет ограничения и сопротивление по техническим причинам;
– будут исключены неверные ожидания, а значит, будет и меньше бесполезных затрат, разочарований, конфликтов.
– Трансформировать общение пользователя с ИИ
Подобную концепцию я закладываю в своего цифрового советника. Пользователю надо давать готовые формы, где он просто проставит нужные значения или отметит пункты. И уже эту форму с корректной обвязкой (промтом) отдавать ИИ. Либо глубоко интегрировать решения в уже существующие ИТ-инструменты: офисные приложения, браузеры, автоответчики в телефоне и т. д.
Но это требует тщательной проработки и понимания поведения, запросов пользователя, или их стандартизации. То есть либо это уже не копеечное решение, которое все равно требует затрат на разработку, либо мы теряем в гибкости.
– Разрабатывать узкоспециализированные модели
Как и с людьми, обучать ИИ всему – занятие очень трудозатратное и имеет низкую эффективность. Если же пойти по созданию узкоспециализированных решений на базе движков больших моделей, то и обучение можно свести к минимуму, и сама модель будет не слишком большой, и контент будет менее абстрактным, более понятным, и галлюцинаций будет меньше.
Наглядная демонстрация – люди. Кто добивается больших успехов и может решать сложные задачи? Тот, кто знает всё, или тот, кто фокусируется на своем направлении и развивается вглубь, знает различные кейсы, общается с другими экспертами и тратит тысячи часов на анализ своего направления?
Пример узкоспециализированного решения:
– советник для управления проектами;
– налоговый консультант;
– советник по бережливому производству;
– чат-бот по производственной безопасности или помощник специалиста производственной безопасности;
– чат-бот для ИТ-техподдержки.
Правообладателям!
Данное произведение размещено по согласованию с ООО "ЛитРес" (20% исходного текста). Если размещение книги нарушает чьи-либо права, то сообщите об этом.Читателям!
Оплатили, но не знаете что делать дальше?