Компанія Miro у співпраці з AWS розробила BugManager — рішення на базі штучного інтелекту для автоматизованої сортування помилок, що дозволяє зменшити кількість перепризначень та скоротити час на усунення неполадок. BugManager використовує оптимізовані підказки та технологію RAG (Retrieval Augmented Generation) для підвищення точності класифікації помилок.
Дослідники з Meta, Стенфордського університету та Вашингтонського університету вдосконалили модель Byte Latent Transformer за допомогою трьох нових методів. BLT-D замінює побайтове декодування на блокову дифузію, що прискорює генерацію тексту.
Мультимодальні вбудовані моделі Amazon Nova кардинально змінюють підхід до пошуку документів у сфері виробництва, об’єднуючи текст, зображення та діаграми в єдиний векторний простір. Ця система забезпечує безперебійний пошук та витяг інформації з різних джерел, підвищуючи точність та ефективність роботи у виробничій галузі.
Ліва псевдообернена матриця широко застосовується в машинному навчанні, тоді як права псевдообернена матриця використовується рідко, але є корисною в наукових задачах. Цей процес передбачає застосування складних алгоритмів та обернення матриць, а основною складністю є обчислення At A або A At.
Платформа Claude тепер доступна на AWS, що забезпечує безперешкодний доступ до функцій Anthropic за допомогою звичних інструментів AWS. Клієнти можуть користуватися тими самими API, функціями та системою розрахунків, що й у Anthropic, — і все це в середовищі AWS.
Дослідники з компаній Sakana AI та NVIDIA намагаються вирішити проблему високої вартості великих мовних моделей, зосередившись на усуненні неефективності шарів прямого поширення. Використовуючи неструктуровану розрідженість, вони прагнуть підвищити ефективність обчислень у цих шарах, зосередившись на пакетному навчанні та високопродуктивному інференційному обчисленні.
Інтеграція Exa з Strands Agents SDK спрощує доступ штучного інтелекту до структурованого веб-контенту, що забезпечує безперебійний процес прийняття рішень. Архітектура Strands Agents SDK, заснована на моделях, розширює можливості агентів завдяки понад 40 готовим інструментам та підтримці серверів MCP.
Такі компанії, як Meta та Google, використовують великі мовні моделі для навчання менших і ефективніших моделей за допомогою дистиляції LLM. Дистиляція з м’якими мітками дозволяє моделям-учням успадковувати здатність до міркування від моделей-вчителів, підвищуючи стабільність та ефективність навчання.
Генеральний директор NVIDIA Дженсен Хуан на випускній церемонії в Університеті Карнегі-Меллона наголосив на початку революції в галузі штучного інтелекту. Штучний інтелект дає Америці шанс на реіндустріалізацію та створення можливостей для всіх.
Компанія NVIDIA представляє Star Elastic — метод вбудовування декількох вкладених підмоделей в одну батьківську модель, що дозволяє знизити витрати на навчання та розгортання великих мовних моделей. Star Elastic використовує оцінку важливості та настроювані маршрутизатори для створення вкладених варіантів з різними бюджетами параметрів в одній контрольній точці.
Компанія Halliburton у співпраці з AWS розробила асистента на базі штучного інтелекту для Seismic Engine, що дозволяє скоротити час на створення робочих процесів на 95%. Тепер геологи можуть налаштовувати інструменти обробки даних за допомогою природної мови, що підвищує ефективність та доступність роботи.
Нові автоенкодери природної мови (NLA) від Anthropic перетворюють складні активації моделей на зрозумілий текст, розкриваючи приховані внутрішні міркування. NLA вже використовуються для виявлення моделей, що дають збій, та виправлення мовних помилок перед публічним випуском.
Останні досягнення в галузі адаптивного паралельного міркування дозволяють моделям самостійно розбивати та координувати підзадачі, що призводить до покращення здатності до міркування та скорочення затримки при виконанні складних завдань. Зараз моделі досліджують альтернативні гіпотези та виправляють помилки, формулюючи висновки без прив’язки до єдиного рішення, що революціонізує результати тес...
Модель ZAYA1-8B від Zyphra AI — мовна модель типу MoE із загальною кількістю параметрів 8,4 млрд — демонструє кращі результати у математичних завданнях, ніж більші моделі. Унікальна архітектура та інноваційні рішення ZAYA1-8B забезпечують максимальну ефективність роботи та знижують вимоги до обсягу пам'яті, завдяки чому ця модель може конкурувати з провідними моделями.
Міністр енергетики США Кріс Райт та віцепрезидент NVIDIA Іан Бак стверджують, що лідерство США у сфері штучного інтелекту залежить від розвитку енергетики, приділяючи особливу увагу місії «Генезіс» Міністерства енергетики США та партнерству з NVIDIA з метою створення суперкомп’ютерів на базі штучного інтелекту в Аргоннській національній лабораторії. Ця співпраця має на меті сприяти науковим ві...