В Китае разработали языковую модель, которая больше GPT-3 в десять раз

Пекинская академия искусственного интеллекта представила новую языковую модель WuDao 2.0. По словам разработчиков, она превосходит аналогичные технологии Google и OpenAI, пишет SCMP.

WuDao 2.0 использует 1,75 трлн параметров для имитации разговорной речи, написания текстов и понимания изображений. Она работает с китайским и английским языками благодаря изучению 4,9 терабайт различных данных.

«Эти сложные модели, обученные на огромных наборах данных, требуют лишь небольшого количества новой информации для запуска определенной функции. […] Они могут передавать знания в новые задачи, как и люди», — сказал исследователь искусственного интеллекта Блейк Ян.

Разработчики заявили, что побили рекорд компании Google, которая в январе 2021 года представила Switch Transformer с 1,6 трлн параметров. До этого крупнейшей языковой моделью была OpenAI GPT-3 со 175 млрд параметров.

Исследователи также сообщили, что уже нашли 22 партнеров, в числе которых производитель смартфонов Xiaomi, служба доставки Meituan и платформа для обмена короткими видео Kuaishou.

Напомним, в марте OpenAI заявила, что языковая модель GPT-3 генерирует 4,5 млрд слов ежедневно.

В январе OpenAI показала созданный на базе GPT-3 алгоритм DALL-E, который по текстовому описанию генерирует реалистичные изображения несуществующих вещей.

Подписывайтесь на наш Telegram и будьте в курсе последних новостей!
Чтобы оставить комментарий необходимо или зарегистрироваться