Amazon начала обучение искусственного интеллекта Olympus — у него вдвое больше параметров, чем GPT-4
Amazon инвестирует миллионы в обучение амбициозной большой языковой модели (LLM), с надеждой, что она сможет конкурировать с OpenAI и Alphabet (Google).
По словам знакомых с этим вопросом собеседников Reuters, модель под кодовым названием Olympus имеет 2 триллиона параметров, что может сделать ее одной из крупнейших моделей, поддающихся обучению. У модели GPT-4 от OpenAI, как сообщается, один триллион параметров.
Команду возглавляет Рохит Прасад, бывший руководитель Alexa, который сейчас подчиняется непосредственно генеральному директору Энди Джассе. Как главный ученый по искусственному общему интеллекту (ИИ) в Amazon, Прасад привлек исследователей, работавших над ИИ Alexa, и научную команду Amazon к работе над обучающими моделями, объединив усилия всей компании.
Amazon уже изучила меньшие модели, такие как Titan. Компания также сотрудничает со стартапами, занимающимися разработкой моделей искусственного интеллекта, например Anthropic и AI21 Labs, предлагая их пользователям Amazon Web Services (AWS).
Amazon считает, что наличие собственных моделей может сделать более привлекательными предложения AWS, потому что корпоративные клиенты хотят получить доступ к лучшим моделям. Впрочем, конкретных сроков выпуска новой модели пока нет.
LLM (большие языковые модели) – это технология, лежащая в основе инструментов искусственного интеллекта, обучающихся на основе огромных массивов данных, чтобы генерировать ответы, подобные человеческим. Чем больше модель ИИ, тем дороже стоит ее обучение, учитывая объем необходимых вычислительных мощностей. В ходе апрельского телефонного звонка руководители Amazon заявили, что компания увеличит инвестиции в LLM и генеративный ИИ, сократив при этом расходы в своем розничном бизнесе.
ИИ-чатбот Claude.ai от Anthropic стал доступным в Украине