282 000 книг, 71 000 авторов


Электронная библиотека » Джимшер Челидзе » » онлайн чтение - страница 4


  • Текст добавлен: 20 ноября 2024, 07:20


Текущая страница: 4 (всего у книги 16 страниц) [доступный отрывок для чтения: 4 страниц]

Шрифт:
- 100% +
Резюме

Хоть ГИИ пока только на стадии развития, потенциал у технологии большой.

Да, хайп вокруг технологии пройдет, инвестиции от бизнеса снизятся, появятся вопросы к ее целесообразности.

Например, уже 16 июня 2024 года Forbes опубликовали статью: «Зима искусственного интеллекта: стоит ли ждать падения инвестиций в AI».

Оригинал статьи доступен по QR-коду и гиперссылке.


Зима искусственного интеллекта: стоит ли ждать падения инвестиций в AI


В ней приводится интересная аналитика о циклах зимы и лета в развитии ИИ. Также приведены мнения Марвина Минского и Роджера Шанка, которые еще в далеком 1984 году на встрече американской ассоциации искусственного интеллекта (AAAI) описали механизм, состоящий из нескольких этапов и напоминающий цепную реакцию, которая приведет к новой зиме в ИИ.

Этап 1. Завышенные ожидания бизнеса и публики от методов искусственного интеллекта не оправдывают себя.

Этап 2. СМИ начинают выпускать скептические статьи.

Этап 3. Федеральные агентства и бизнес снижают финансирование научных и продуктовых исследований.

Этап 4. Ученые теряют интерес к AI, и темп развития технологии замедляется.

И мнение экспертов сбылось. В течение пары лет наступила ИИ-зима, а потеплело лишь в 2010-х годах. Прямо как в «Игре Престолов».

Сейчас же мы находимся на очередном пике. Он наступил в 2023-м после выхода ChatGPT. Даже в этой книге для понимания читателя я часто привожу и буду приводить примеры из области данной LLM, хотя это и частный случай ИИ, но очень понятный.

Далее в статье приводится анализ по циклу Минского и Шанка к текущей ситуации.

«Этап 1. Ожидания бизнеса и публики.

Всем очевидно, что ожидания революции от AI в повседневной жизни пока не оправдались:

– Google так и не смог полноценно трансформировать свой поиск. После года тестирования технология AI-supercharged Search Generative Experience получает смешанные отзывы пользователей.

– Голосовые ассистенты («Алиса», «Маруся» и др.), возможно, стали немного лучше, но их вряд ли можно назвать полноценными ассистентами, которым мы доверяем хоть сколько-нибудь ответственные решения.

– Чат-боты служб поддержки продолжают испытывать сложности в понимании запроса пользователя и раздражают ответами невпопад и общими фразами.

Этап 2. Реакция СМИ.

По запросу AI bubble «старый» поиск Google выдает статьи авторитетных изданий с пессимистичными заголовками:

– Пузырь хайпа вокруг искусственного интеллекта сдувается. Наступают сложные времена (The Washington Post).

– От бума до взрыва пузырь AI движется только в одном направлении (The Guardian).

– Крах фондового рынка: известный экономист предупреждает, что пузырь AI рушится (Business Insider).

Мое личное мнение: эти статьи недалеки от истины. Ситуация на рынке очень похожа на то, что было перед крахом доткомов в 2000-х. Рынок явно перегрет, тем более что 9 из 10 ИИ-проектов провальны. Сейчас бизнес-модель и экономическая модель почти всех ИИ-решений и проектов нежизнеспособна.

Этап 3. Финансирование.

Несмотря на нарастающий пессимизм, пока нельзя сказать, что финансирование разработок в сфере AI снижается. Крупнейшие IT-компании продолжают инвестировать миллиарды долларов в технологии, а ведущие научные конференции в области искусственного интеллекта получают рекордное число заявок на публикацию статей.

Таким образом, в классификации Минского и Шанка мы сейчас находимся между вторым и третьим этапом перехода к зиме искусственного интеллекта. Означает ли это, что «зима» неизбежна и скоро AI снова отойдет на второй план? На самом деле нет».

В заключении статьи приводится ключевой аргумент – ИИ слишком глубоко проникли в нашу жизнь, чтобы началась новая ИИ-зима:

– системы распознавания лиц в телефонах и метро используют нейросети для точной идентификации пользователя;

– переводчики типа Google Translate сильно выросли в качестве, перейдя от методов классической лингвистики к нейросетям;

– современные системы рекомендаций используют нейросети для точного моделирования предпочтений пользователя.

Особенно интересно мнение, что потенциал слабого ИИ не исчерпан, и несмотря на все проблемы сильного ИИ, он может приносить пользу. И я полностью согласен с этим тезисом.

Следующий шаг в развитии ГИИ – создание более новых и легких моделей, которым требуется меньше данных для обучения. Нужно только набраться терпения и постепенно изучать инструмент, формируя компетенции, чтобы потом использовать его потенциал в полной мере.

Глава 5. Регулирование ИИ

Активное развитие искусственного интеллекта (ИИ, AI) приводит к тому, что общество и государства становятся обеспокоенными и думают о том, как его обезопасить. А значит, ИИ будет регулироваться. Но давайте разберемся в этом вопросе детальнее, что происходит сейчас и чего ожидать в будущем.

Почему развитие ИИ вызывает беспокойство?

Какие факторы вызывают бурное беспокойство у государств и регуляторов?

– Возможности

Самый главный пункт, на который будут опираться все следующие – возможности. ИИ демонстрирует огромный потенциал: принятие решений, написание материалов, генерация иллюстраций, создание поддельных видео – список можно перечислять бесконечно. Мы еще не осознаем всего, что может ИИ. А ведь мы пока владеем слабым ИИ. На что будет способен общий ИИ (AGI) или суперсильный ИИ?

– Механизмы работы

У ИИ есть ключевая особенность – он способен строить взаимосвязи, которые не понимает человек. И благодаря этому он способен как совершать открытия, так и пугать людей. Даже создатели ИИ-моделей не знают, как именно принимает решения нейросеть, какой логике она подчиняется. Отсутствие предсказуемости делает чрезвычайно трудным устранение и исправление ошибок в алгоритмах работы нейросетей, что становится огромным барьером на пути внедрения ИИ. Например, в медицине ИИ не скоро доверят ставить диагнозы. Да, он будет готовить рекомендации врачу, но итоговое решение будет оставаться за человеком. То же самое и в управлении атомными станциями или любым другим оборудованием.

Главное, о чем переживают ученые при моделировании будущего – не посчитает ли нас сильный ИИ пережитком прошлого?

– Этическая составляющая

Для искусственного интеллекта нет этики, добра и зла. Также для ИИ нет понятия «здравый смысл». Он руководствуется только одним фактором – успешность выполнения задачи. Если для военных целей это благо, то в обычной жизни людей это будет пугать. Общество не готово жить в такой парадигме. Готовы ли мы принять решение ИИ, который скажет, что не нужно лечить ребенка или нужно уничтожить целый город, чтобы не допустить распространение болезни?

– Нейросети не могут оценить данные на реальность и логичность

Нейросети просто собирают данные и не анализируют факты, их связанность. А значит, ИИ можно манипулировать. Он полностью зависит от тех данных, которыми его обучают создатели. Могут ли люди доверять полностью корпорациям или стартапам? И даже если мы доверяем людям и уверены в интересах компании, можем ли мы быть знать наверняка, что не произошло сбоя или данные не были «отравлены» злоумышленниками? Например, с помощью создания огромного количества сайтов-клонов с недостоверной информацией или «вбросами».

– Недостоверные контент / обман / галюцинации

Иногда это просто ошибки из-за ограничения моделей, иногда галлюцинации (додумывания), а иногда это похоже и на вполне настоящий обман.

Так, исследователи из компании Anthropic обнаружили, что модели искусственного интеллекта можно научить обманывать людей вместо того, чтобы давать правильные ответы на их вопросы.

Исследователи из Anthropic в рамках одного из проектов поставили перед собой задачу установить, можно ли обучить модель ИИ обману пользователя или выполнению таких действий, как, например, внедрение эксплойта в изначально безопасный компьютерный код. Для этого специалисты обучили ИИ как этичному поведению, так и неэтичному – привили ему склонность к обману.

Исследователям не просто удалось заставить чат-бот плохо себя вести – они обнаружили, что устранить такую манеру поведения постфактум чрезвычайно сложно. В какой-то момент они предприняли попытку состязательного обучения, и бот просто начал скрывать свою склонность к обману на период обучения и оценки, а при работе продолжал преднамеренно давать пользователям недостоверную информацию. «В нашей работе не оценивается вероятность [появления] указанных вредоносных моделей, а подчёркиваются их последствия. Если модель демонстрирует склонность к обману из-за выравнивания инструментария или отравления модели, современные методы обучения средствам безопасности не будут гарантировать безопасности и даже могут создать ложное впечатление о неё наличии», – заключают исследователи. При этом они отмечают, что им неизвестно о преднамеренном внедрении механизмов неэтичного поведения в какую-либо из существующих систем ИИ.

– Социальная напряженность, расслоение общества и нагрузка на государство

ИИ создает не только благоприятные возможности для повышения эффективности и результативности, но и риски.

Развитие ИИ неизбежно приведет к автоматизации рабочих мест и изменению рынка. И да, часть людей примет этот вызов и станет еще образованнее, выйдет на новый уровень. Когда-то умение писать и считать было уделом элиты, а теперь рядовой сотрудник должен уметь делать сводные таблицы в excel и проводить простую аналитику.

Но часть людей не примет этого вызова и потеряет рабочие места. А это приведет к дальнейшему расслоению общества и увеличению социальной напряженности, что в свою очередь беспокоит и государства, ведь помимо политических рисков, это будет и ударом по экономике. Люди, которые потеряют рабочие места, будут обращаться за пособиями.

Так, 15 января 2024 Bloomberg опубликовали статью, в которой управляющий директор Международного Валютного Фонда Кристана Георгиева предполагает, что бурное развитие систем искусственного интеллекта в большей степени отразится на высокоразвитых экономиках мира, чем на странах с растущей экономикой и низким доходом на душу населения. В любом случае, искусственный интеллект затронет почти 40% рабочих мест в масштабах всей планеты. «В большинстве сценариев искусственный интеллект с высокой вероятностью ухудшит всеобщее неравенство, и это тревожная тенденция, которую регуляторы не должны упускать из виду, чтобы предотвратить усиление социальной напряжённости из-за развития технологий», – отметила глава МВФ в корпоративном блоге.

– Безопасность

Проблемы безопасности ИИ на слуху у всех. И если на уровне небольших локальных моделей решение есть (обучение на выверенных данных), то что делать с большими моделями (ChatGPT и т.п.) – непонятно. Злоумышленники постоянно находят способы, как взломать защиту ИИ, и заставить его, например, написать рецепт взрывчатки. И ведь мы пока даже не говорим про AGI.

Какие инициативы в 2023 – 2024 годах?

Этот блок я раскрою кратко. Подробнее и с ссылками на новости можно ознакомиться в статье по QR-коду и гиперссылке. Постепенно статья будет дополняться.


Регулирование ИИ (AI)


Призыв разработчиков ИИ весной 2023 года

Начало 2023 года было не только взлетом ChatGPT, но и началом борьбы за безопасность. Тогда вышло открытое письмо от Илона Маска, Стива Возняка и еще более тысячи экспертов и руководителей отрасли ИИ с призывом приостановить разработку продвинутого ИИ.

Организация Объединенных Наций

В июле 2023 года генеральный секретарь ООН Антониу Гутерриш поддержал идею создать на базе ООН орган, который бы сформулировал глобальные стандарты по регулированию сферы ИИ.

Такая площадка могла бы действовать по аналогии с Международным агентством по атомной энергии (МАГАТЭ), Международной организацией гражданской авиации (ИКАО) или Международной группой экспертов по изменению климата (МГЭИК). Также он обозначил пять целей и задач такого органа:

– помощь странам в получении максимальной пользы от ИИ;

– устранение существующих и будущих угроз;

– выработка и реализация международных механизмов мониторинга и контроля;

– сбор экспертных данных и их передача мировому сообществу;

– изучение ИИ для «ускорения устойчивого развития».

В июне 2023 года он также обращал внимание на то, что «ученые и эксперты призвали мир к действию, объявив искусственный интеллект экзистенциальной угрозой человечеству наравне с риском ядерной войны».

А еще раньше, 15 сентября 2021 года, верховный комиссар ООН по правам человека Мишель Бачелет призвала наложить мораторий на использование нескольких систем, использующих алгоритмы искусственного интеллекта.

Open AI

В конце 2023 года OpenAI (разработчик ChatGPT) объявила о создании стратегии по превентивному устранению потенциальных опасностей ИИ. Особое внимание уделяется предотвращению рисков, связанных с развитием технологий.

Эта группа будет работать вместе с командами:

– систем безопасности, которая занимается решением существующих проблем, таких как предотвращение расовых предубеждений в ИИ;

– Superalignment, которая изучает работу сильного ИИ и как он будет работать, когда превзойдет человеческий интеллект.

Концепция безопасности OpenAI также включает оценку рисков по следующим категориям: кибербезопасность, ядерная, химическая, биологическая угроза, убеждение и автономия модели.

Евросоюз

Весной 2023 года Европарламент предварительно согласовал закон под названием AI Act, который устанавливает правила и требования для разработчиков моделей искусственного интеллекта.

В основе лежит риск-ориентированный подход к ИИ, а сам закон определяет обязательства разработчиков и пользователей ИИ в зависимости от уровня риска, используемого ИИ.

Всего выделяют четыре категории систем ИИ: с минимальным, ограниченным, высоким и неприемлемым риском.

Минимальный риск – результаты работы ИИ прогнозируемы и никак не могут навредить пользователям. Компании и пользователи смогут использовать их бесплатно. Например, спам-фильтры и видеоигры.

Ограниченный риск – различные чат-боты. Например, ChatGPT и Midjourney. Их алгоритмы для доступа в ЕС должны будут пройти проверку на безопасность. Также они будут подчиняться конкретным обязательствам по обеспечению прозрачности, чтобы пользователи могли принимать осознанные решения, знать, что они взаимодействуют с машиной, и отключаться по желанию.

Высокий риск – специализированные ИИ-системы, которые оказывают влияние на людей. Например, решения в области медицины, образования и профессиональной подготовки, трудоустройства, управления персоналом, доступ к основным частным и государственным услугам и льготам, данные правоохранительных органов, данные миграционных и пограничных служб, данные институтов правосудия.

Поставщики и разработчики «высокорискового» ИИ обязаны:

– провести оценку риска и соответствия;

– зарегистрировать свои системы в европейской базе данных ИИ;

– обеспечить высокое качество данных, которые используются для обучения ИИ;

– обеспечить прозрачность системы и информированность пользователей о том, что они взаимодействуют с ИИ, а также обязательный надзор со стороны человека и возможность вмешательства в работу системы.

Неприемлемый риск – алгоритмы для выставления социального рейтинга или создания дипфейков, системы, использующие подсознательные или целенаправленные манипулятивные методы, эксплуатирующие уязвимости людей.

Системы ИИ с неприемлемым уровнем риска для безопасности будут запрещены.

Также компании, которые разрабатывают модели на базе генеративного ИИ (может создавать что-то новое на основе алгоритма), должны будут составить техническую документацию, соблюдать законодательство ЕС об авторском праве и подробно описывать контент, используемый для обучения. А наиболее продвинутые модели, которые представляют «системные риски», подвергнутся дополнительной проверке, включая сообщения о серьезных инцидентах, внедрение мер кибербезопасности и отчетность об энергоэффективности. И, конечно, разработчики обязаны информировать пользователей о том, что они взаимодействуют с ИИ, а не с человеком.

Также для ИИ запретили:

– сбор и обработку биометрических данных, в том числе в общественных местах в реальном времени, с исключением для правоохранительных органов и только после судебного разрешения;

– биометрическую категоризацию с использованием чувствительных характеристик (например, пол, раса, этническая принадлежность, гражданство, религия, политическая позиция);

– подготовку прогнозов для правоохранительных органов, которые основаны на профилировании, местоположении или прошлом криминальном поведении;

– распознавание эмоций в правоохранительных органах, пограничных службах, на рабочих местах и в учебных заведениях;

– неизбирательное извлечение биометрических данных из социальных сетей или видеозаписей с камер видеонаблюдения для создания баз данных распознавания лиц (нарушение прав человека и права на неприкосновенность частной жизни).

В декабре 2023 года этот закон был согласован окончательно.

США

В октябре 2023 года вышел указ президента США, согласно которому разработчики самых мощных систем ИИ должны делиться результатами тестирования на безопасность и другой важной информацией с правительством США. Также указ предусматривает разработку стандартов, инструментов и тестов, призванных помочь убедиться в безопасности систем ИИ.

Китай

Переговоры OpenAI, Anthropic и Cohere с китайскими экспертами

Американские компании OpenAI, Anthropic и Cohere, занимающиеся разработкой искусственного интеллекта, провели тайные дипломатические переговоры с китайскими экспертами в области ИИ.

Переговоры между председателем КНР Си Цзиньпинем и президентом США Джо Байденом

15 ноября 2023 года, во время саммита Азиатско-Тихоокеанского экономического сотрудничества (АТЭС) в Сан-Франциско, лидеры двух стран договорились о сотрудничестве в нескольких значительных сферах, в том числе в области разработки ИИ.

Правила по регулированию ИИ

В течение 2023 года китайские власти вместе с бизнесом разработали 24 новых правила регулирования ИИ (введены 15 августа 2023 года).

Цель – не препятствовать развитию технологий искусственного интеллекта, поскольку для страны эта отрасль крайне важна. Необходимо найти баланс между поддержкой отрасли и возможными последствиями развития ИИ-технологий и соответствующей продукции.

Сами правила можно прочитать по QR-коду и гиперссылке.


Регулирование ИИ (AI)


Сам документ также можно скачать по QR-коду и гиперссылке.


2023 Новые правила в области искусственного интеллекта в Китае/China’s New AI Regulations, Latham&Watkins


Как и в Европе, нужно регистрировать услуги и алгоритмы на базе искусственного интеллекта, а сгенерированный алгоритмами контент (в том числе фото и видео), нужно помечать.

Также создатели контента и алгоритмов должны будут проводить проверку безопасности своей продукции до ее вывода на рынок. Каким образом это будут реализовать – пока не определено.

Плюс ко всему, компании, связанные с ИИ-технологиями и генерированным контентом, должны иметь прозрачный и действенный механизм рассмотрения жалоб пользователей на услуги и контент.

При этом самих регуляторов будет семь, в том числе Государственная канцелярия интернет-информации КНР, министерство образования, министерство науки и технологий, национальная комиссия по развитию и реформам.

Декларация Блетчли

В ноябре 2023 года 28 стран, участвовавших в Первом международном саммите по безопасному ИИ, включая Соединенные Штаты, Китай и Европейский союз, подписали соглашение, известное как Декларация Блетчли.

Она призывает к международному сотрудничеству. Акцент сделан на регулировании «Пограничного искусственного интеллекта». Под ним понимают новейшие и наиболее мощные системы и ИИ-модели. Это вызвано опасениями, связанными с потенциальным использованием ИИ для терроризма, в преступной деятельности и для ведения войн, а также экзистенциальным риском, представляемым для человечества в целом.

Россия

По состоянию на начало 2024 года основными документами в сфере ИИ были:

– Указ Президента РФ от 10 октября 2019 г. №490 «О развитии искусственного интеллекта в Российской Федерации», который вводит Национальную стратегию развития искусственного интеллекта на период до 2030 года

– Федеральный закон от 24.04.2020 №123-ФЗ «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации – городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона «О персональных данных»

– Распоряжение Правительства Российской Федерации от 19.08.2020 г. №2129-р «Об утверждении Концепции развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 года»

– Ряд государственных стандартов по отраслям.

Интересным также выглядит предложение Центрального Банка Российской Федерации, который намерен поддержать риск-ориентированный принцип регулирования ИИ на финансовом рынке. Он выделил два направления: ответственность за вред, причиненный в результате применения технологии, и защиту авторских прав.

Пока (в 2024 году) ЦБ не видит необходимости в оперативной разработке отдельного регулирования использования ИИ финансовыми организациями. Но это и не исключает внедрение специальных требований в отдельных случаях.

Например, один законопроект устанавливает порядок обезличивания персональных данных для операторов, не являющихся государственными органами, а другой – дает возможность финансовым организациям при аутсорсинге функций, связанных с использованием облачных услуг, передавать для обработки информацию, составляющую банковскую тайну.

Главным ресурсом для отслеживания регуляторики в сфере ИИ является портал Искусственный интеллект в Российской Федерации. В частности, раздел Регуляторика.

Внимание! Это не конец книги.

Если начало книги вам понравилось, то полную версию можно приобрести у нашего партнёра - распространителя легального контента. Поддержите автора!

Страницы книги >> Предыдущая | 1 2 3 4
  • 4 Оценок: 5


Популярные книги за неделю


Рекомендации