Уважаемые партнеры! Приглашаем вас принять участие в маркетинговой акции Yealink «Бонус на связи!». Период действия акции: 01 декабря 2025 г. – 31 декабря 2025 г. – За закупку IP-телефонов и гарнитур Yealink вам будут начисляться бонусы. – Для каждой модели предусмотрен ...
Уважаемые партнеры! Treolan предлагает вам принять участие в программе по продукции Netac. Совершая покупку продукции Netac в Treolan, вы можете получить подарочные сертификаты федеральных сетей на ваш выбор. Для участия в программе необходимо зарегистрироваться
Предновогодняя распродажа Datalogic стартовала! Специальное предложение до конца 2025 года — на ручные и стационарные сканеры Datalogic действуют эксклюзивные цены! Прямо сейчас к оперативной отгрузке со склада PROWAY доступны: Ручной беспроводной сканер Datalogic QuickScan QBT2500-BK-BTK1 Данная ...
Получите кешбэк 5% на закупку новых моделей корпусов CBR до 8 декабря: CBR V201 — 260 x 165 x 353 мм, 2×HDD + 2×SSD, видеокарта до 250 мм, 2×USB 2.0; CBR V203 — 260 x 165 x 353 мм, 2×HDD + 2×SSD, видеокарта до 250 мм, USB 2.0, USB 3.0; CBR V205 — 260 x 165 x ...
Уважаемые партнеры! Приглашаем вас принять участие в промопрограмме по продукции НИИ «Масштаб». Покупая хотя бы одну лицензию виртуализации, а также любые другие решения НИИ Масштаб в Treolan, вы получаете подарочный сертификат на ваш выбор. Для участия в программе необходимо зарегистрироваться
Учёные Сбера, лаборатории Fusion Brain Института AIRI и Сколтеха обнаружили принципиально новое свойство больших языковых моделей и научились контролировать его. Это позволит оптимизировать модели-трансформеры на 10–15% без потери в качестве, экономя вычислительные мощности. Модели с трансформерной архитектурой лежат в основе диалоговых ботов. В таких моделях множество слоёв: от входа (например, запроса «Нарисуй кота») информация доходит до выхода и преобразуется в картинку. Принято считать, что линейность слоёв —— свойство самых слабых моделей, а нелинейность — сильных, то есть тех же самых трансформеров. Линейность обеспечивает простоту и эффективность в вычислениях, но при этом модель не может решать сложные задачи, такие как выучивать необычные закономерности в данных. Исследователи изучили устройство 20 известных open source языковых моделей по типу декодера и выяснили, что между эмбеддингами (числовые представления данных) есть высокая линейная зависимость. Соответственно, при переходе от слоя к слою информация не претерпевает нелинейных преобразований, и сложную архитектуру трансформера можно заменить намного более лёгкими слоями нейросети. Чтобы избежать проявления негативных свойств линейности во время предобучения и улучшить метрики качества модели, специалисты разработали специальный регуляризатор. Это позволило заменить сложные блоки слоёв модели на более простые. В ходе экспериментов выяснилось, что облегчать без потери качества можно от 10 до 15% слоёв. Андрей ... читать далее.