Компания, известная всему миру по своим text-to-image моделям Stable Diffusion, выпустила свою первую языковую модель — StableLM. Уже доступны варианты на 3B и 7B параметров и в ближайшее время обещают 15B и 65B. Лицензия CC BY-SA-4.0 разрешает коммерч…
Группа исследователей из разных организаций и университетов (Together, ontocord.ai, ds3lab.inf.ethz.ch, crfm.stanford.edu, hazyresearch.stanford.edu, mila.quebec) работает над созданием open source альтернативы модели LLaMa и уже опубликовали датасет,…
Если помните недавнюю серию новостей, череда альпакоподобных моделей (Alpaca, gpt4all, Vicuna) страдала двумя основными недостатками — несвободная основа и несвободный датасет. Databricks от них окончательно избавились в своей новой модели Dolly 2.0 Чи…
Друзья, это наконец случилось. В предыдущей новости были ссылочки на демо Викуньки, но вчера ночью опубликовали саму модель. Сегодня её уже квантировали до 4 бит и сконвертировали в формат ggml (Georgi Gerganov Machine Learning, полагаю), а значит нам …
Новости из мира больших языковых моделей продолжают радовать день за днём. «Стенфордский подход» к fine tuning’у (это когда одну LLM дообучают по данным, полученным из другой LLM) продолжает давать жизнь новым интересным проектам.В прошлый раз это бы…
Не успела прошуметь предыдущая новость https://habr.com/ru/news/t/723638/ так на горизонте замаячили новые альпакоподобные, натренированные по такому же принципу.В этот раз, ребята из databricks взяли за основу не какую-то там полу-проприетарную Llama …
Тогда это сделаю я.Друзья, если вы вдруг пропустили новости, то светлые головы из Стендфорда (университет такой в США), взяли несколько моделей LLama, которые недавно выпустили из недр Meta AI, нагенерировали им дополнительного материала для обучения п…