Языковая модель «LLaMA», недавно представленная исследовательской группой Facebook по искусственному интеллекту, продемонстрировала обнадеживающие результаты по сравнению с другими моделями с точки зрения эффективности и действенности. Модель, название которой означает «Легкий вес и агностик языковой модели», направлена на снижение вычислительных затрат на обучение больших языковых моделей, сохраняя при этом конкурентоспособные результаты.
С выпуском в конце 2022 года проекта OpenAI ChatGPT, который финансировался Microsoft, началась гонка за захватом контроля над сектором технологий искусственного интеллекта. Дебют побудил цифровых гигантов, включая китайскую Baidu Inc (9888.HK) и Alphabet Inc (GOOGL.O), представить свои собственные языковые модели искусственного интеллекта.
Тот факт, что LLaMA может работать на многих языках, что значительно повышает его адаптивность к различным ситуациям и обстоятельствам, является одним из его важных преимуществ. Кроме того, LLaMA имеет передовой алгоритм обучения, который может эффективно обрабатывать огромные объемы данных. С помощью этого метода языковые модели могут обучаться быстрее и эффективнее и использоваться для различных задач обработки естественного языка.
Используя различные наборы данных для бенчмарков, включая известные бенчмарки GLUE и SuperGLUE, исследователи провели испытания с использованием модели LLaMA и достигли передовых результатов по ряду задач. Результаты показали, что при сохранении относительно скромного размера модели и быстрого времени вывода LLaMA чрезвычайно эффективна при обработке сложных языковых задач.
LLaMA может превзойти конкурентов, которые оценивают больше параметров, включая поддерживаемый Microsoft OpenAI ChatGPT. Сообщается, что версия с 13 миллиардами параметров превосходит GPT-3, недавнего предшественника модели, на которой построен ChatGPT.

Этот новый прорыв представляет собой еще один шаг в продолжающемся конфликте между такими компаниями, как Alphabet Inc. и китайской Baidu Inc., за превосходство в области технологий ИИ. Благодаря своей высокой производительности и значительному количеству параметров LLaMA может дать Meta преимущество в этом конфликте. Будет интересно понаблюдать, как другие компании отреагируют на эту последнюю разработку.