Новости криптовалют

Мощнее Meta и OpenAI: китайский стартап DeepSeek представил ИИ-модель

Биржи на которых я торгую:

Китайский ИИ-стартап DeepSeek представил собственную большую языковую модель, которая превзошла по тестам конкурентов от Meta и OpenAI.

DeepSeek V3 имеет 671 млрд параметров. Для сравнения, у Llama 3.1 405B показатель 405 млрд. Число отражает способность ИИ адаптироваться к более сложным вариантам применения и давать ответы точнее.  

Сравнение DeepSeek V3 с конкурентами. Данные: DeepSeek.

Компания из Ханчжоу обучила нейросеть за два месяца и $5,58 млн, используя значительно меньше вычислительных ресурсов (2048 графических процессоров) по сравнению с более крупными технологическими компаниями. Она обещает предоставление лучшего соотношения цена/качество на рынке.

В будущем запланировано добавление мультимодальности и «других передовых функций».

Член команды OpenAI Андрей Карпати отметил, что DeepSeek продемонстрировала весьма впечатляющие исследования и разработки в условиях ограниченных ресурсов.

«Означает ли это, что вам не нужны большие кластеры GPU для пограничных LLM? Нет, но вы должны быть уверены, что не растрачиваете то, что у вас есть. Это выглядит как хорошая демонстрация того, что еще многое предстоит сделать как с данными, так и с алгоритмами», — добавил он.

Ранее DeepSeek представила «конкурента o1 от OpenAI» — думающую «сверхмощную» ИИ-модель DeepSeek-R1-Lite-Preview.

Напомним, в июле китайская компания Kuaishou открыла ИИ-модель для генерации видео Kling для всех желающих.


Опубликовано

в

от

Комментарии

Добавить комментарий