API
OpenAI объявляет о всеобщей доступности API GPT-4
Начиная с сегодняшнего дня, все существующие разработчики API OpenAI «с историей успешных платежей» могут получить доступ к GPT-4.
OpenAI сегодня объявил о всеобщей доступности GPT-4, своей новейшей модели генерации текста, через API.
Начиная с сегодняшнего дня, все существующие разработчики API OpenAI «с историей успешных платежей» могут получить доступ к GPT-4. Компания планирует открыть доступ для новых разработчиков к концу этого месяца, а после этого начать повышать лимиты доступности «в зависимости от доступности вычислений».
«Миллионы разработчиков запросили доступ к API GPT-4 с марта, и спектр инновационных продуктов, использующих GPT-4, растет с каждым днем», — пишет OpenAI в своем блоге. «Мы представляем себе будущее, в котором чат-модели смогут поддерживать любые сценарии использования».
GPT-4 может генерировать текст (включая код) и принимать на вход изображения и текст, что является улучшением по сравнению с GPT-3.5, его предшественником, который принимал только текст. ИИ демонстрирует результаты на «человеческом уровне» в различных профессиональных и академических тестах. Как и предыдущие модели GPT от OpenAI, GPT-4 обучался на общедоступных данных, в том числе с публичных веб-страниц, а также на данных, лицензированных OpenAI.
Возможность понимания изображений пока доступна не всем клиентам OpenAI. Для начала OpenAI тестирует ее с одним партнером, Be My Eyes. Но пока не сообщается, когда она откроет ее для более широкой клиентской базы.
Стоит отметить, что, как и другие лучшие генеративные модели ИИ на сегодняшний день, GPT-4 не совершенен. Он «галлюцинирует» — придумывает факты и допускает ошибки в рассуждениях, иногда делая это очень уверенно. И он не учится на своем опыте, терпя неудачи в решении сложных задач, например, внося уязвимости в генерируемый им код.
В будущем OpenAI заявляет, что позволит разработчикам доработать GPT-4 и GPT-3.5 Turbo, одну из своих недавних, но менее способных моделей генерации текста (и одну из оригинальных моделей, на которых основан ChatGPT), с помощью собственных данных, как это уже давно возможно с несколькими другими моделями генерации текста OpenAI. Эта возможность должна появиться позже в этом году, согласно OpenAI.
С момента появления GPT-4 в марте конкуренция в области генеративного ИИ обострилась. Недавно компания Anthropic расширила контекстное окно для Claude — своей флагманской модели ИИ, генерирующей текст, которая пока находится на стадии предварительного просмотра — с 9 000 до 100 000 лексем.
GPT-4 пока удерживает корону по контекстному окну, которое сейчас составляя 32 000 лексем. Вообще говоря, модели с небольшим контекстным окном склонны «забывать» содержание даже очень недавних разговоров, что приводит к тому, что они отклоняются от темы.
Кроме того, сегодня OpenAI объявил о том, что делает API DALL-E 2 и Whisper общедоступными. DALL-E 2 — это модель OpenAI, генерирующая изображения, а Whisper — модель преобразования речи в текст. Компания также заявила, что планирует отказаться от старых моделей, доступных через API, чтобы «оптимизировать свои вычислительные мощности» (в последние несколько месяцев, во многом благодаря взрывной популярности ChatGPT, OpenAI с трудом справлялась со спросом на свои генеративные модели).
Начиная с 4 января 2024 года, некоторые старые модели OpenAI — в частности, GPT-3 и ее производные — перестанут быть доступными и будут заменены новыми «базовыми GPT-3» моделями, которые, надо полагать, более эффективны в плане вычислений. Разработчики, использующие старые модели, должны будут вручную обновить свои интеграции до 4 января, а те, кто хочет продолжать использовать старые модели с точной настройкой после 4 января, должны будут доработать замены на основе новых базовых моделей GPT-3.
-
Приложения23 часа назад
Перевод по фото для iOS и Android 2025
-
Приложения2 дня назад
Решение уравнений по фотографии — приложения для математиков
-
Исследования3 недели назад
Поможет ли новая архитектура React Native отобрать лидерство у Flutter в кроссплатформенной разработке?
-
Интегрированные среды разработки4 недели назад
Лучшая работа с Android Studio: 5 советов