Написал admin ronin
23:23 04.03.2024
Рейтинг
9
+1
Парадокс силы искусственного интеллекта.
Могут ли государства научиться управлять искусственным интеллектом, пока не станет слишком поздно?
Искусственный интеллект-наверное, тот вопрос, от которого дух захватывает у любого человека. Ведь это-будущее, которое рождается у нас на глазах, и которое изменит мир кардинально. Ежедневно мы слышим и читаем новости,связанные с ИИ. Он так быстро развивается и стремительно входит во все сферы жизни.
Ниже- отрывки из статьи, которую в октябре 2023 написали Мустафа Сулейман, британский исследователь ИИ и Ян Бреммер, американский политолог, специализирующийся на международных политических рисках для издания Foreign Affairs.
Мы находимся в 2035 году, и искусственный интеллект повсюду. ИИ-системы управляют больницами, управляют авиакомпаниями и судятся друг с другом в суде. Продуктивность достигла беспрецедентных уровней, и буквально каждый день на рынке появляются новые продукты, лекарства и инновации, поскольку наука и технологии вступили в свою эру. И всё же мир становится более непредсказуемым и хрупким: террористы находят новые способы угрожать обществу с помощью «умного», быстрее развивающегося кибероружия, а белые воротнички массово теряют работу.
Всего год назад такой сценарий казался бы чистым вымыслом, а сегодня он выглядит почти неизбежным. Генеративные системы ИИ уже способны писать более ясно и убедительно, чем большинство людей. Они могут создавать оригинальные изображения, произведения искусства и даже компьютерный код на основе простых языковых запросов. И генеративный ИИ - это всего лишь вершина айсберга. Его появление ознаменовывает момент Великого взрыва, начало технологической революции, которая переформатирует политику, экономику и общество.
Подобно предыдущим волнам технологического развития, ИИ будет сопровождаться экстраординарным ростом и возможностями, а также огромными проблемам. и рисками. Но в отличие от предыдущих волн, он также инициирует сейсмический сдвиг в структуре и балансе глобальной власти.
Независимо от того, признают они это или нет, создатели ИИ сами являются геополитическими игроками, и их контроль над ИИ дополнительно укрепляет появляющийся "технополярный" порядок - порядок, в котором технологические компании в своих сферах обладают той властью, которая когда-то принадлежала национальным государствам. За последние десять лет большие технологические фирмы фактически стали независимыми суверенными акторами в цифровых сферах, которые они создали. ИИ ускоряет эту тенденцию и расширяет её далеко за пределы цифрового мира. Сложность технологии и скорость её развития сделают почти невозможным для правительств создать актуальные правила работы в разумные сроки. Если правительства не успеют создать необходимый алгоритм по использованию ИИ очень быстро, есть вероятность, что они никогда этого не сделают."
К счастью, политики по всему миру начали осознавать вызовы, стоящие перед использованием искусственного интеллекта, и инициируют вопросы, как им управлять. В мае 2023 года "Большая семерка" запустила процесс "Хиросима- ИИ", посвященный согласованию аспектов управления искусственным интеллектом.
В июне 2023 Европейский парламент принял проект Закона ЕС об искусственном интеллекте. Это первая всесторонняя попытка Европейского союза установить защитные меры вокруг индустрии искусственного интеллекта.
В июле 2023 Генеральный секретарь ООН Антонио Гутерреш призвал к созданию глобального регулирующего органа в отношении искусственного интеллекта. Тем временем, в Соединенных Штатах политики призывают к созданию регулирующх мер. Многие согласны с Тедом Крузом, сенатором- республиканцем, который в июне сказал, что Конгресс не имеет понятия, что он делает.
К сожалению, слишком много дебатов о регулировании ИИ остается запутанными в опасной ложной дилемме: использовать искусственный интеллект для расширения национальной мощи или подавлять его, чтобы избежать рисков. Даже те, кто точно диагностируют проблему, пытаются решить ее, втискивая ИИ в существующие структуры управления. Тем не менее, ИИ не может быть управляем так же, как предыдущие технологии, и он уже изменяет традиционные представления о геополитической силе.
Задача ясна- необходимо создать новую систему управления, соответствующую этой уникальной технологии. Если глобальное управление ИИ может стать возможным, необходимо организовать встречу мировых лидеров с руководителями компаний, работающих в сфере технологий ИИ. Без таких шагов эффективное управление ИИ не имеет шансов. Это лишь один пример того, как мировое сообщество должно переосмыслить базовые предположения о геополитическом порядке. Но это не единственный случай.
Такое необычное и насущное испытание, как ИИ, требует оригинального решения. Прежде чем политики смогут начать разрабатывать подходящую регуляторную структуру, им нужно будет прийти к согласию по базовым принципам управления ИИ. Во-первых, любая система управления должна быть гибкой, инклюзивной, непроницаемой и целенаправленной. Основываясь на этих принципах, политики должны создать как минимум три перекрывающихся режима управления: один для установления фактов и консультирования правительств по рискам, связанным с ИИ, второй для предотвращения полномасштабной гонки вооружений, и третий для управления разрушительными силами технологий, которых мир еще не видел.
Нравится это или нет, 2035 год наступает. Будет ли он определен положительными достижениями, обеспеченными ИИ, или негативными потрясениями, вызванными им, зависит от того, какие шаги сейчас сделают политики.
Искусственный интеллект отличается от других технологий Он не только создает проблемы для политики; его гиперэволюционная природа также делает решение этих проблем всё более сложным. Это парадокс силы искусственного интеллекта.
Как и любое программное обеспечение или код, алгоритмы искусственного интеллекта намного легче и дешевле копировать и распространять (или красть), чем физические активы. Очевидны риски их распространения. Мощная модель Llama-1 от компании Meta, например, утекла в интернет всего за несколько дней после своего дебюта в марте. Несмотря на то, что самые мощные модели по-прежнему требуют сложного оборудования для работы, среднего уровня версии могут работать на компьютерах, которые можно арендовать за несколько долларов в час. Скоро такие модели будут работать на смартфонах. Ни одна технология такой мощности не становилась такой доступной так быстро.
Искусственный интеллект также отличается от более старых технологий тем, что практически вся его деятельность может быть охарактеризована как "двойное использование" - имеющее как военные, так и гражданские применения. Многие системы по своей природе являются общими, и действительно, общность является основной целью многих компаний, занимающихся разработкой ИИ. Они хотят, чтобы их приложения помогали как можно большему числу людей разными способами. Но те же самые системы, которые управляют автомобилями, могут управлять танками. Приложение искусственного интеллекта, созданное для диагностики болезней, может иметь возможность создавать и вооружать новые болезни. Грани между безопасно гражданским и военно разрушительным неопределенны по своей сути, что частично объясняет, почему Соединенные Штаты ограничили экспорт самых совершенных полупроводников в Китай.
Все это происходит на глобальной арене: как только модели искусственного интеллекта выпущены, они могут и будут использоваться повсюду. И всего одной вредоносной или "выходящей из-под контроля" модели будет достаточно, чтобы навредить. По этой причине регулирование ИИ не может осуществляться фрагментарно. Мало толку регулировать ИИ в некоторых странах, если в других он остается нерегулируемым. Поскольку ИИ может распространяться настолько легко, его управление не может иметь пробелов.
Более того, потенциальный вред, который может причинить ИИ, не имеет очевидных ограничений, даже при росте стимулов для его создания (и выгод от этого). ИИ может использоваться для создания и распространения токсичной дезинформации, разрушая социальное доверие и демократию; для наблюдения, манипулирования и подавления граждан, подрывая индивидуальные и коллективные свободы; или для создания мощного цифрового или физического оружия, угрожающего жизням людей. ИИ также может уничтожить миллионы рабочих мест, ухудшив существующие неравенства и создав новые; закрепить дискриминационные практики и исказить процесс принятия решений, усиливая циклы обратной связи с плохой информацией; или вызвать непреднамеренные и неуправляемые военные эскалации, приводящие к войне.
Перевод Тамары Ярошовец
Комментарии
Комментариев пока нет
Только зарегистрированные пользователи могут отправлять комментарии
наши постоянные авторы
самые активные дискуссии
Тема: Олег Базилевич: Обыкновенный фашизм
Всего реплик: 70
Всего участников: 13
Олег Базилевич, Тамара Ярошовец, Константин Дмитриев
Тема: Константин Дмитриев: BITCOIN. ПРОГНОЗ МИЛЛИАРДЕРА МАРКА ГИНЗБУРГА
Всего реплик: 63
Всего участников: 9
Олег Базилевич, Константин Дмитриев, admin ronin
Тема: Олег Базилевич: Как нам обустроить Россию?
Всего реплик: 58
Всего участников: 13
Олег Базилевич, Максим Пестун, Константин Дмитриев