Что такое искусственный интеллект
Определение искусственного интеллекта, как и сам термин, были озвучены ещё в 1956 году на летнем семинаре в Дартмутском колледже, который организовали четверо американских учёных: Джон Маккарти, Марвин Ли Минский, Натаниэль Рочестер и Клод Шеннон (John McCarthy, Marvin Lee Minsky, Nathaniel Rochester, Claude Shannon). Искусственный интеллект – это способность компьютерных систем выполнять интеллектуальные и творческие функции, которые традиционно считаются человеческими.
До 2023 года о технологиях искусственного интеллекта задумывали немногие, хотя он всё более прочно входил в нашу жизнь. Многие могли заметить, что их снимки в телефонах незаметно сортируются по папкам: семейное застолье, путешествия, на пляже, домашние животные. Телефоны научились определять контекст фотографий и помещать снимки в нужное место. А также распознавать людей на фото. Это обучение – механизм работы искусственного интеллекта.
То же происходит, например, когда сайты в интернете показывают пользователю рекламу или рекомендуют видео или новости с учётом его интересов. Например, если человек каждую неделю заходит на сайт об авиации, то в конечном итоге в его ленте новостей появляется всё больше текстов на авиационную тему.
Но это – самое простое. Область искусственного интеллекта пересекается со многими другими областями, включая математику, статистику, теорию вероятностей, физику, обработку сигналов, машинное обучение, компьютерное зрение, психологию, лингвистику и науку о мозге. Вопросы, связанные с социальной ответственностью и этикой создания искусственного интеллекта притягивают интересующихся людей, занимающихся философией.
В основе работы любого искусственного интеллекта лежит процесс, известный как обучение алгоритма, когда в компьютерную программу вкладывают для анализа огромный объём данных и набор инструкций. Программа начинает анализировать имеющуюся в её распоряжении информацию в поисках закономерностей. В обучении программы, как правило, участвует человек. Его профессия часто так и называет – тренер искусственного интеллекта.
Грубый, но характерный пример. В базу данных искусственного интеллекта загрузили 1000 фотографий лошадей. Далее программу попросили отобрать лошадей из массива в миллион фотографий. И программа, в общем-то справилась, но среди отобранных фото оказалось с десяток изображений крупных собак и несколько коров. Задача человека – найти эти изображения и сообщить машине, что она ошиблась. Затем машина должен «понять», что в этих фотографиях было не так.
Миллионы раз проанализировавший одну и ту же базу данных искусственный интеллект со временем приобретает необходимые навыки, всё лучше и лучше справляясь с поставленной задачей.
Именно 2023 год стал переломным в сфере искусственного интеллекта. В этом году произошёл прорыв и машины научились во многом заменять человека. Теперь они могут писать тексты, рисовать, креативить и придумывать слоганы и даже писать компьютерный код. При этом программы научились распознавать человеческую речь. Их стали использовать студенты при написании рефератов. Известны даже случаи, когда судьи писали приговоры с помощью искусственного интеллекта. А на престижном конкурсе фотографий Sony World Photography Awards победило изображение, сгенерированное нейросетью. Немецкий фотохудожник Борис Эльдагсен (Boris Eldagsen) признался, что решил таким образом проверить, распознает ли жюри ненастоящий снимок. Не распознало.
Как устроены чаты
Самый популярный тип искусственного интеллекта, появившийся в этом году, – это чат-боты. ВВС объясняет, как они устроены:
«Чат-бот напоминает попугая, который может повторять услышанные слова и даже до некоторой степени соотносить их с контекстом, но значение этих слов (если допустить, что он вообще различает отдельные слова) попугаю известно лишь очень приблизительно. Чат-боты делают примерно то же самое, только на значительно более сложном уровне – и, кажется, вскоре могут полностью изменить наши отношения с письменной речью».
Чат-боты относятся к подвиду искусственного интеллекта, известному как «большие языковые модели», и их обучают на колоссальных объёмах текста, совершенно немыслимых для человека. LLM (большая языковая модель, Large Language Models) может сравнивать не только отдельные слова, но и целые предложения, а также анализировать, в каком контексте использованы те или иные слова и выражения в различных отрывках, находя их поиском по всей имеющейся в распоряжении алгоритма базе данных.
Используя эти миллиарды сравнений между словами и фразами, он может прочитать вопрос и сгенерировать ответ. Удивительная особенность больших языковых моделей заключается в том, что они могут изучать правила грамматики и определять значение слов из контекста самостоятельно, без помощи человека.
Закон об искусственном интеллекте
Неудивительно, что на фоне растущей популярности искусственного интеллекта, законодатели всего мира хотят урегулировать развитие технологий, дабы они не пошли во вред человечеству. Именно закон ЕС, впервые предложенный в 2019 году, должен был стать первым в мире всеобъемлющим нормативным актом по искусственному интеллекту, ещё больше укрепив позиции блока из 27 стран в качестве мирового законодателя моды, пишет Associated Press.
Но процесс застопорился из-за тех самых, внезапно возникших в 2023 году, систем, лежащих в основе сервисов искусственного интеллекта общего назначения. Крупные технологические компании выступают против чрезмерного, по их мнению, регулирования, подавляющего инновации, в то время как европейские законодатели хотят обеспечить дополнительные гарантии для передовых систем искусственного интеллекта, которые разрабатывают эти компании. В итоге всё больше шансов, что новый закон не будет согласован до выборов в Европейский парламент в следующем году.
Когда Европейская комиссия, исполнительный орган ЕС, представила проект в 2021 году, в нём почти не упоминались системы искусственного интеллекта общего назначения, такие как чат-боты. Предложение классифицировать системы искусственного интеллекта по четырем уровням риска – от минимального до неприемлемого – по сути, задумывалось как законодательство о безопасности продукции. Брюссель хотел сертифицировать информацию, используемую алгоритмами, подобно проверке потребительской безопасности косметики, автомобилей и игрушек.
Однако с бумом генеративного искусственного интеллекта всё изменилось. Он вызвал опасения, что технология может быть использована для проведения масштабных кибератак или создания нового биооружия. Риски заставили законодателей ЕС усилить закон. Однако Франция, Германия и Италия выступили в поддержку саморегулирования в этой сфере.
Изменение позиции многими оценивается как шаг, направленный на помощь отечественным игрокам, таким как французский стартап Mistral AI и немецкая компания Aleph Alpha.
Тем временем группа влиятельных учёных-компьютерщиков опубликовала открытое письмо, в котором предупредила, что такое ослабление Закона об искусственном интеллекте станет «историческим провалом».
Искусственный интеллект «слишком важен, чтобы его не регулировать, и слишком важен, чтобы не регулировать его хорошо», заявил на прошлой неделе в Брюсселе главный юрист Google. По его словам, гонка должна вестись за то, чтобы регулировать искусственный интеллект лучше, а не за тем, чтобы написать первый закон.
США, Великобритания, Китай и глобальные коалиции, такие как G7, присоединились к гонке за разработку защитных механизмов для быстро развивающейся отрасли, предполагая потенциальную экзистенциальную опасность, которую генеративный искусственный интеллект представляет для человечества.
Участникам переговоров ЕС ещё предстоит решить несколько других спорных моментов, включая предложение полностью запретить публичное распознавание лиц в режиме реального времени. Страны хотят сделать исключение, чтобы правоохранительные органы могли использовать его для поиска пропавших детей или террористов, но правозащитные группы опасаются, что это фактически создаст правовую основу для слежки.
Отдельное направление для регулирования – военный искусственный интеллект. Уже сегодня системы искусственного интеллекта активно используются в ВПК. В частности, при производстве полностью автономного оружия, системы разведки и анализа данных, системы наведения (которые помогают точнее стрелять и запускать ракеты), боевых симуляторов и беспилотного транспорта. Например, действием дронов ещё пять лет назад должен был управлять оператор. Однако сегодня они сами находят и атакуют цели. Даже маленькие и дешёвые дроны наносят ощутимый урон. Но их можно объединить в рой, и такая армада сможет атаковать несколько целей сразу или одну большую с разных сторон.
Скандал в OpenAI
Один из «законодателей мод» на рынке искусственного интеллекта – компания OpenAI, которую поддерживает Microsoft. Там была создана одна из самых продвинутых моделей искусственного интеллекта – чат GPT-4.
Совет директоров OpenAI объявил 17 ноября, что уволил одного из основателей компании, Сэма Альтмана (Sam Altman), с поста генерального директора и исключил его из правления. Альтман быстро перешел в Microsoft, а сотрудники OpenAI пригрозили уйти вслед за ним. Тогда компания быстро вернула Альтмана. Также были внесены изменения в состав совета директоров.
Как узнало впоследствии агентство Reuters, незадолго до отставки Альтмана несколько штатных научных сотрудников компании написали письмо совету директоров. В письме говорилось о важном открытии в области искусственного интеллекта, которое, по мнению учёных, может стать угрозой для человечества. В чём заключается это открытие, СМИ не уточняют. По словам источников, письмо стало одной из причин увольнения Альтмана.
Тревогу могла вызвать, в частности, новая модель под названием Q* (Кью-стар). Это автономная система, которая сможет научиться решать любые интеллектуальные задачи не хуже человека, в том числе математические. Новая модель уже смогла справиться с задачами уровня начальной школы. Сейчас генеративные модели хорошо работают с текстом, но их ответы на один и тот же вопрос могут сильно различаться. В то же время у математических задач чаще всего существует только один правильный ответ. Значит, система должна будет научиться рассуждать, обобщать, анализировать и понимать информацию подобно человеку. Ожидается, что в перспективе такая система способна будет продемонстрировать что-то похожее на сознание.
Вернувшийся в OpenAI Альтман предложил создать американское или глобальное агентство, которое будет лицензировать самые мощные системы искусственного интеллекта. Ранее он предположил, что OpenAI может покинуть Европу, если не сможет соблюдать правила ЕС, но быстро отозвал свои комментарии.
Кирилл Балберов