На своей конференции для разработчиков компания OpenAI анонсировала GPT-4 Turbo – более дешевую, быструю и умную модель GPT-4. Разработчики получают множество новых функций API по гораздо более низкой цене.
Новая модель GPT-4 Turbo теперь доступна в виде предварительной версии через OpenAI API и непосредственно в ChatGPT. По словам генерального директора OpenAI Сэма Альтмана, GPT-4 Turbo “намного быстрее” и “умнее”.
Выпуск Turbo также объясняет слухи о дате обновления ChatGPT: GPT-4 Turbo актуален до апреля 2023 года. Оригинальный ChatGPT обладал знаниями только до сентября 2021 года.
Вероятно, самым важным моментом для разработчиков является значительное снижение цен на GPT-4 Turbo: входные маркеры (обработка текста) для Turbo стали в три раза дешевле, а выходные маркеры (генерация текста) – в два раза.
Стоимость новой модели Turbo составляет 0,01 долл. за 1000 токенов по сравнению с 0,03 долл. для GPT-4 для входных токенов и 0,03 долл. для выходных токенов по сравнению с 0,06 долл. для GPT-4. Она также значительно дешевле GPT-4 32K, несмотря на то, что имеет в четыре раза большее контекстное окно (см. ниже).
Еще одна изюминка для разработчиков: OpenAI расширяет GPT-4 Turbo API, добавляя в него обработку изображений, интеграцию с DALL-E 3 и преобразование текста в речь. Модель “gpt-4-vision-preview” может анализировать и генерировать изображения, а также создавать человекоподобную речь из текста.
OpenAI также работает над экспериментальной программой тонкой настройки GPT-4 и программой создания пользовательских моделей для организаций с большими собственными наборами данных.
GPT-4 Turbo уделяется гораздо больше внимания
Пожалуй, самым важным техническим изменением является увеличение так называемого контекстного окна, т.е. количества слов, которые GPT-4 Turbo может обрабатывать одновременно и учитывать при формировании вывода. Ранее контекстное окно составляло максимум 32000 лексем. В GPT-4 Turbo оно составляет 128000 лексем. Это эквивалентно до 100000 слов.
OpenAI также подтверждает наличие модели GPT-4 All, которая также доступна сейчас и была замечена до начала конференции. Модель All автоматически переключается между различными моделями GPT для программного кода (Advanced Data Analysis) или генерации изображений (DALL-E 3) в зависимости от требований пользователя. Ранее пользователям приходилось вручную выбирать соответствующую модель перед вводом данных.
API Assistants и защита авторских прав
OpenAI также представила API Assistants, чтобы помочь разработчикам интегрировать вспомогательные функции ИИ в свои приложения. API поддерживает постоянные и бесконечные потоки, что позволяет разработчикам преодолеть ограничения контекстного окна.
Ассистенты получили доступ к таким новым инструментам, как Code Interpreter, который записывает и выполняет код на языке Python в изолированной среде; Retrieval, который обогащает ассистента внешними знаниями; и Function Call, который позволяет ассистентам вызывать пользовательские функции.
Assistants API основан на той же функциональности, что и GPT-продукты OpenAI. Разработчики могут опробовать бета-версию Assistants API в Assistants Playground без написания кода. Бета-версия доступна уже сейчас.
По словам Сэма Альтмана, генерального директора OpenAI, ассистенты – это первый шаг на пути к полноценным агентам искусственного интеллекта, и в будущем будут добавлены новые возможности.
Еще одна новая функция – “Щит авторских прав”, который защищает клиентов от судебных исков, связанных с нарушением авторских прав на контент, созданный с помощью моделей OpenAI, и оплачивает их. Эта защита распространяется на общедоступные функции ChatGPT Enterprise и платформу для разработчиков.
О подобной защите объявили также Microsoft и Google. Они свидетельствуют об уверенности Big AI в победе в текущих и будущих судебных процессах.
Полный текст выступления можно посмотреть на видео ниже.