Результатов: 2

DeepMind представила языковую модель с 280 млрд параметров

Британская ИИ-лаборатория DeepMind разработала большую языковую модель Gopher, содержащую 280 млрд параметров. По словам исследователей, чем крупнее модель, тем точнее она работает. Today we're releasing three new papers on large language models. дальше »

2021-12-9 13:04


Израильский стартап разработал доступную альтернативу GPT-3

Израильский стартап AI21 Labs разработал языковую модель Jurassic-1 Jumbo, которая превзошла конкурентную GPT-3 по количеству параметров и объему словарного запаса. The post Израильский стартап разработал доступную альтернативу GPT-3 first appeared on ForkLog. дальше »

2021-8-13 14:30