Perioadă de profit mare din modelele de limbaj mici în inteligența artificială
Microsoft, Meta și Google au lansat noi versiuni care au mai puțini parametri și sunt mai ieftin de construit și antrenat. Companiile obțin profituri uriașe din aceste modele lingvistice mici.
Companiile de inteligență artificială, care au cheltuit miliarde de dolari pentru a crea modele lingvistice mari pentru a-și alimenta produsele de inteligență artificială, au apelat acum la modele lingvistice mici pentru a-și crește veniturile.
Apple, Microsoft, #Meta și #Google au lansat recent modele noi #AI cu mai puțini parametri, dar totuși capabilități puternice.
În general, cu cât numărul de parametri este mai mare, cu atât performanța software-ului AI este mai bună și sarcinile sale pot fi mai complexe și nuanțate. Cel mai recent model OpenAI GPT-4o și Gemini 1.5 Pro, pe care Google le-a anunțat săptămâna aceasta, sunt estimate a avea peste 1 milion de parametri, iar Meta antrenează o versiune de 400 de miliarde de parametri a modelului open-source Llama.