Яндекс сообщил о перезапуске чата с Алисой на новой нейросети YandexGPT 5 Pro

Разработчики поделились результатами исследований
Тематическое изображение. Нейросеть по версии нейросети Qwen2.5-Plus
Фото: сгенерировано с помощью ИИ, Qwen2.5-Plus (18+)

25 февраля. О перезапуске чата с "Алисой" (18+) на нейросети нового поколения — YandexGPT 5 Pro (18+) пишет "РБК" (18+) со ссылкой на пресс-службу "Яндекса". В ходе проведения специалистами "Яндекса" замеров методом слепого сравнения (Side by Side, SBS) выяснилось что YandexGPT 5 Pro сравнима по качеству ответов с GPT-4o (18+) от OpenAI и в 64% случаев превосходит китайскую модель Qwen2.5 (18+) (версию Qwen-2.5-32b-Instruct) в решении стандартных задач сервисов "Яндекса", сообщает ИА PrimaMedia.

По данным AdIndex.ru (18+), функционал "Алиса Про" за счет языковой модели YandexGPT 5 Pro расширился. Она научилась писать код, считать и выполнять задания на логику, улучшила работу с текстом, повысив точность ответов.

Следует также добавить, что "Яндекс" впервые за последние несколько лет выложил одну из языковых моделей в опенсорс (тип программного обеспечения, исходный код которого доступен всем желающим, прим. ред.). Разработчикам стала доступна младшая модель YandexGPT 5 Lite (18+) (версия pretrain) в качестве базовой модели для последующего ее дообучения под решение своих задач.

Как написал в блоге компании "Яндекс" в сообществе habr.com (18+) представитель команды разработки YandexGPT Андрей Бут, на сегодняшний день YandexGPT 5 Lite 8B Pretrain в ряде англоязычных и русскоязычных бенчмарков (тестов производительности, прим. ред) опережает сопоставимые base-версии моделей Llama (18+) и Qwen (18+). 

"Наша модель будет полезна тем разработчикам, у которых есть потребность в дообучении небольшой, изначально русскоязычной модели под свои задачи", — написал Андрей Бут.

Он также отметил, что старшая модель нового поколения — YandexGPT 5 Pro — не только уже используется в чате с "Алисой", но и доступна для внедрения через API в Yandex Cloud.

"Существенный буст в качестве её ответов обусловлен большим количеством изменений в процессе обучения: например, мы пересобрали датасет для претрейна, добавили веса опенсорс-модели, предложили свою модификацию метода DPO — LogDPO — для преодоления проблемы "разучивания" и перепробовали множество других оптимизаций в течение нескольких месяцев активной разработки", — подчеркнул разработчик. 

Напомним, по данным "РБК" (18+) в ноябре 2024 года китайская компания DeepSeek представила языковую модель DeepSeek V3 (18+), которая способна анализировать и переводить тексты, программировать, а также писать эссе. По словам разработчиков, она способна конкурировать с ChatGPT (18+), а стоимость ее обучения составила $5,6 млн. OpenAI, в свою очередь, потратила на обучение GPT $78 млн.

Смотрите полную версию на сайте >>>