Уважаемые партнеры! Приглашаем вас принять участие в маркетинговой акции Yealink «Бонус на связи!». Период действия акции: 01 декабря 2025 г. – 31 декабря 2025 г. – За закупку IP-телефонов и гарнитур Yealink вам будут начисляться бонусы. – Для каждой модели предусмотрен ...
Уважаемые партнеры! Treolan предлагает вам принять участие в программе по продукции Netac. Совершая покупку продукции Netac в Treolan, вы можете получить подарочные сертификаты федеральных сетей на ваш выбор. Для участия в программе необходимо зарегистрироваться
Предновогодняя распродажа Datalogic стартовала! Специальное предложение до конца 2025 года — на ручные и стационарные сканеры Datalogic действуют эксклюзивные цены! Прямо сейчас к оперативной отгрузке со склада PROWAY доступны: Ручной беспроводной сканер Datalogic QuickScan QBT2500-BK-BTK1 Данная ...
Получите кешбэк 5% на закупку новых моделей корпусов CBR до 8 декабря: CBR V201 — 260 x 165 x 353 мм, 2×HDD + 2×SSD, видеокарта до 250 мм, 2×USB 2.0; CBR V203 — 260 x 165 x 353 мм, 2×HDD + 2×SSD, видеокарта до 250 мм, USB 2.0, USB 3.0; CBR V205 — 260 x 165 x ...
Уважаемые партнеры! Приглашаем вас принять участие в промопрограмме по продукции НИИ «Масштаб». Покупая хотя бы одну лицензию виртуализации, а также любые другие решения НИИ Масштаб в Treolan, вы получаете подарочный сертификат на ваш выбор. Для участия в программе необходимо зарегистрироваться
Исследователи использовали всего 8% самого мощного суперкомпьютера в мире для обучения модели размером с ChatGPT, сообщает портал AI Business. Для обучения языковой модели размером с ChatGPT от OpenAI обычно требуется огромный суперкомпьютер. Но ученые, работающие на самом мощном в мире суперкомпьютере, разработали инновационные методы обучения гигантских моделей с использованием гораздо меньшего количества оборудования. В новом исследовании ученые из Ок-Риджской национальной лаборатории (Oak Ridge National Laboratory) обучили большую языковую модель (LLM) с одним триллионом параметров с помощью всего нескольких тысяч графических процессоров на суперкомпьютере Frontier — самом мощном нераспределенном суперкомпьютере в мире и одной из всего двух экзафлопсных систем в мире. В последнем списке Top500 Frontier сохранил за собой корону самого мощного суперкомпьютера, опередив Aurora на базе Intel. #IMAGE_228395# Для обучения гигантской LLM исследователи использовали всего 3072 GPU из 37 888 GPU производства AMD, установленных на Frontier. Это означает, что они обучили модель, сравнимую с ChatGPT с триллионом параметров, всего на 8% вычислительной мощности суперкомпьютера. Команда Frontier достигла этого результата, используя стратегии распределенного обучения, чтобы по сути обучать модель на всей параллельной архитектуре устройства. Используя такие приемы, как параллелизм с перетасовкой данных для уменьшения обмена данными между слоями узлов и тензорный параллелизм для решения ... читать далее.