В своей недавней работе группа ведущих исследователей и экспертов в области ИИ подчеркивает необходимость уделять особое внимание управлению рисками, безопасности и этичности использования ИИ.
В своей работе “Управление рисками ИИ в эпоху быстрого прогресса” исследователи предупреждают о таких рисках для общества, как социальная несправедливость, нестабильность, глобальное неравенство и масштабная преступная деятельность.
Они призывают к прорыву в исследованиях безопасности и этики ИИ, а также к эффективному государственному надзору для устранения этих рисков. Они также призывают крупные технологические компании и государственные фонды инвестировать не менее трети бюджета на исследования и разработки в области ИИ в обеспечение безопасности и этичности его использования.
Осторожность с автономными системами ИИ
Исследовательская группа особо предостерегает от использования ИИ в руках “нескольких влиятельных игроков”, которые могут укрепить или усугубить глобальное неравенство, а также способствовать ведению автоматизированных войн, индивидуальному массовому манипулированию и повсеместному наблюдению.
В этом контексте они особо предостерегают от автономных систем ИИ, которые могут усугубить существующие и создать новые риски.
Эти системы будут создавать “беспрецедентные проблемы контроля”, и человечество может оказаться не в состоянии сдерживать их, если они будут преследовать нежелательные цели. Неясно, как можно согласовать поведение ИИ с человеческими ценностями, говорится в статье.
“Даже благонамеренные разработчики могут случайно создать системы ИИ, преследующие нежелательные цели, особенно если, стремясь выиграть гонку ИИ, они пренебрегут дорогостоящими испытаниями на безопасность и человеческим контролем”, – говорится в статье.
К числу важнейших технических проблем, требующих решения, относятся надзор и честность, надежность, интерпретируемость, оценка рисков и решение возникающих проблем. Авторы утверждают, что решение этих проблем должно стать центральным направлением развития ИИ.
В дополнение к техническим разработкам, по их мнению, срочно необходимы меры управления, чтобы предотвратить безрассудное и неправильное использование технологий ИИ. Авторы призывают национальные институты и международные структуры управления обеспечить соблюдение стандартов и ответственную разработку и внедрение систем ИИ.
Правительствам должно быть разрешено проводить предварительный отбор
Для эффективного регулирования государства должны требовать регистрации моделей, защиты от разоблачителей, отчетности об инцидентах, а также надзора за разработкой моделей и использованием суперкомпьютеров.
Регулирующие органы также должны иметь доступ к передовым системам ИИ до их развертывания для проверки на наличие опасных возможностей.
Такая работа уже ведется в Китае, хотя она носит преимущественно политический характер, а правительство США также объявило, что будет проводить предварительный отбор моделей ИИ, которые могут иметь отношение к национальной безопасности.
Изменить правила безопасности для систем ИИ
Для систем ИИ с опасными возможностями необходимо создать несколько механизмов управления. К ним относятся создание национальных и международных стандартов безопасности, юридическая ответственность разработчиков и владельцев ИИ, а также возможное лицензирование и контроль доступа для особо мощных систем ИИ.
Авторы подчеркивают, что крупнейшие компании, занимающиеся разработкой ИИ, должны незамедлительно сформулировать обязательства по принципу “если – то”, которые определяют конкретные меры безопасности, которые будут приняты в случае пересечения их системами ИИ определенных “красных линий”. Эти обязательства должны быть подвергнуты детальной и независимой проверке.
Наконец, авторы подчеркивают, что прогресс в области безопасности и управления отстает от быстрого развития возможностей ИИ. По их мнению, для того чтобы ИИ приводил к положительным результатам, а не к катастрофам, усилия и инвестиции должны быть направлены на управление общественными рисками и безопасное и этичное использование этих технологий.
“Существует ответственный путь, если у нас хватит мудрости пойти по нему”, – пишут авторы, среди которых лауреаты премии Тьюринга Йошуа Бенгио и Джеффри Хинтон, а также известный исследователь ИИ из Калифорнийского университета в Беркли Стюарт Рассел.
Критика слишком сильного страха перед ИИ
Именно этих трех исследователей и других, приводящих аналогичные аргументы, главный научный сотрудник Meta* AI Янн ЛеКун недавно обвинил в том, что они дают повод крупным ИИ-компаниям, таким как OpenAI, вводить более жесткие меры регулирования, которые замедлят развитие систем ИИ с открытым исходным кодом.
По его словам, это “захват регуляторов” и опасное развитие событий. По мнению ЛеКуна, наибольший риск для общества заключается в том, что несколько компаний получат контроль над технологиями, которые могут определять будущее общества.
ЛеКун считает, что нынешние системы полезны, но их возможности, а значит, и потенциал риска, переоценены. Он работает над созданием новой архитектуры ИИ, которая позволит системам ИИ обучаться так же, как человек, и значительно превзойти существующие системы ИИ по эффективности и результативности.