Ведущие исследователи в области искусственного интеллекта вновь предупреждают о передовых возможностях автономного ИИ

31.10.2023 13:32

В своей недавней работе группа ведущих исследователей и экспертов в области ИИ подчеркивает необходимость уделять особое внимание управлению рисками, безопасности и этичности использования ИИ.

В своей работе “Управление рисками ИИ в эпоху быстрого прогресса” исследователи предупреждают о таких рисках для общества, как социальная несправедливость, нестабильность, глобальное неравенство и масштабная преступная деятельность.

Они призывают к прорыву в исследованиях безопасности и этики ИИ, а также к эффективному государственному надзору для устранения этих рисков. Они также призывают крупные технологические компании и государственные фонды инвестировать не менее трети бюджета на исследования и разработки в области ИИ в обеспечение безопасности и этичности его использования.

Осторожность с автономными системами ИИ

Исследовательская группа особо предостерегает от использования ИИ в руках “нескольких влиятельных игроков”, которые могут укрепить или усугубить глобальное неравенство, а также способствовать ведению автоматизированных войн, индивидуальному массовому манипулированию и повсеместному наблюдению.

В этом контексте они особо предостерегают от автономных систем ИИ, которые могут усугубить существующие и создать новые риски.

Эти системы будут создавать “беспрецедентные проблемы контроля”, и человечество может оказаться не в состоянии сдерживать их, если они будут преследовать нежелательные цели. Неясно, как можно согласовать поведение ИИ с человеческими ценностями, говорится в статье.

“Даже благонамеренные разработчики могут случайно создать системы ИИ, преследующие нежелательные цели, особенно если, стремясь выиграть гонку ИИ, они пренебрегут дорогостоящими испытаниями на безопасность и человеческим контролем”, – говорится в статье.

К числу важнейших технических проблем, требующих решения, относятся надзор и честность, надежность, интерпретируемость, оценка рисков и решение возникающих проблем. Авторы утверждают, что решение этих проблем должно стать центральным направлением развития ИИ.

В дополнение к техническим разработкам, по их мнению, срочно необходимы меры управления, чтобы предотвратить безрассудное и неправильное использование технологий ИИ. Авторы призывают национальные институты и международные структуры управления обеспечить соблюдение стандартов и ответственную разработку и внедрение систем ИИ.

Правительствам должно быть разрешено проводить предварительный отбор

Для эффективного регулирования государства должны требовать регистрации моделей, защиты от разоблачителей, отчетности об инцидентах, а также надзора за разработкой моделей и использованием суперкомпьютеров.

Регулирующие органы также должны иметь доступ к передовым системам ИИ до их развертывания для проверки на наличие опасных возможностей.

Такая работа уже ведется в Китае, хотя она носит преимущественно политический характер, а правительство США также объявило, что будет проводить предварительный отбор моделей ИИ, которые могут иметь отношение к национальной безопасности.

Изменить правила безопасности для систем ИИ

Для систем ИИ с опасными возможностями необходимо создать несколько механизмов управления. К ним относятся создание национальных и международных стандартов безопасности, юридическая ответственность разработчиков и владельцев ИИ, а также возможное лицензирование и контроль доступа для особо мощных систем ИИ.

Авторы подчеркивают, что крупнейшие компании, занимающиеся разработкой ИИ, должны незамедлительно сформулировать обязательства по принципу “если – то”, которые определяют конкретные меры безопасности, которые будут приняты в случае пересечения их системами ИИ определенных “красных линий”. Эти обязательства должны быть подвергнуты детальной и независимой проверке.

Наконец, авторы подчеркивают, что прогресс в области безопасности и управления отстает от быстрого развития возможностей ИИ. По их мнению, для того чтобы ИИ приводил к положительным результатам, а не к катастрофам, усилия и инвестиции должны быть направлены на управление общественными рисками и безопасное и этичное использование этих технологий.

“Существует ответственный путь, если у нас хватит мудрости пойти по нему”, – пишут авторы, среди которых лауреаты премии Тьюринга Йошуа Бенгио и Джеффри Хинтон, а также известный исследователь ИИ из Калифорнийского университета в Беркли Стюарт Рассел.

Критика слишком сильного страха перед ИИ

Именно этих трех исследователей и других, приводящих аналогичные аргументы, главный научный сотрудник Meta* AI Янн ЛеКун недавно обвинил в том, что они дают повод крупным ИИ-компаниям, таким как OpenAI, вводить более жесткие меры регулирования, которые замедлят развитие систем ИИ с открытым исходным кодом.

По его словам, это “захват регуляторов” и опасное развитие событий. По мнению ЛеКуна, наибольший риск для общества заключается в том, что несколько компаний получат контроль над технологиями, которые могут определять будущее общества.

ЛеКун считает, что нынешние системы полезны, но их возможности, а значит, и потенциал риска, переоценены. Он работает над созданием новой архитектуры ИИ, которая позволит системам ИИ обучаться так же, как человек, и значительно превзойти существующие системы ИИ по эффективности и результативности.

Автор:
SEO-специалист, автор новостей по ИИ

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

telegram
Обратная связь
Свяжитесь с нами
Реквизиты

ИНН: 772578776588
ОГРН: 315774600103615
ОКПО: 0194004627
ОКТМО: 45914000000
ОКАТО: 45296559000
р/с: 40802810300310000244
в АКБ «БАНК МОСКВЫ» (ОАО) отделение «Перовское»
к/с: 30101810500000000219
БИК: 044525219

Фактический адрес: г. Москва, шоссе Энтузиастов, дом 56, строение 26, офис 304

Юридический адрес: 115191, г. Москва, 4-й Рощинский проезд д.7/16