MathNet, створений дослідниками з MIT, KAUST та HUMAIN, є найбільшим набором даних із математичних задач, що містять доведення, який охоплює 47 країн та 17 мов. Він представляє собою централізовану колекцію високоякісних задач та рішень із міжнародних математичних олімпіад, пропонуючи моделям штучного інтелекту та учням багатий ресурс для вивчення математичного мислення.
DeepSeek-AI представляє серію DeepSeek-V4 з інноваційними моделями MoE, що підтримують контекстні вікна розміром у мільйон токенів. Гібридна архітектура уваги та технологія Manifold-Constrained Hyper-Connections кардинально змінюють підхід до вирішення завдань із довгим контекстом.
Google DeepMind представляє Decoupled DiLoCo — розподілену архітектуру навчання, яка усуває вузькі місця, пов’язані із синхронізацією, та дозволяє здійснювати попереднє навчання великих мовних моделей у географічно віддалених дата-центрах. Decoupled DiLoCo зменшує вимоги до пропускної здатності між дата-центрами з 198 Гбіт/с до всього 0,84 Гбіт/с, що робить навчання в глобальному масштабі реал...
Дослідники з Google Cloud AI, Університету Іллінойсу в Урбана-Шампейн та Єльського університету представляють ReasoningBank — фреймворк пам’яті, який аналізує причини успіху чи невдачі завдань, що виконуються агентами штучного інтелекту. Існуючі системи пам’яті агентів мають серйозні «сліпі зони», натомість ReasoningBank вибирає релевантні спогади для підвищення ефективності роботи.
Досягнення в галузі штучного інтелекту в сфері охорони здоров’я дозволяють об’єднати розрізнені потоки даних, що сприяє прийняттю більш обґрунтованих рішень у сфері персоналізованої медицини. Мультимодальні біо-FM, такі як Latent-X1 та Evo 2, кардинально змінюють процес пошуку нових ліків та клінічних досліджень завдяки моделям штучного інтелекту, навченим на різноманітних біологічних наборах ...
Автор ділиться досвідом застосування набору даних про діабет у регресійній моделі на основі нейронної мережі, написаній на C#, яка дозволяє точно прогнозувати показники діабету. Завдяки нормалізації даних та налаштуванням нейронної мережі було отримано результати, порівнянні з результатами інших регресійних моделей.
Використання моделі NVIDIA Parakeet-TDT-0.6B-v3 у сервісі AWS Batch на інстанціях з прискоренням на базі графічного процесора дозволяє швидше та економічніше здійснювати транскрипцію аудіофайлів різними європейськими мовами. Архітектура «Token-and-Duration Transducer» цієї моделі в
TrendMicro вдосконалює сервіс чат-ботів на базі штучного інтелекту, додавши функцію «корпоративної пам’яті» в Amazon Bedrock, що працює на базі Amazon Neptune та Mem0. Така архітектура дозволяє чат-боту згадувати історію взаємодій, отримувати корпоративні знання та надавати індивідуальні відповіді, що покращує користувацький досвід.
Дослідники з Массачусетського технологічного інституту (MIT) розробили метод RLCR для підвищення точності оцінок впевненості моделей штучного інтелекту, що дозволяє зменшити кількість помилок на 90 % без втрати загальної точності. Ця техніка навчає моделі надавати відкалібровані оцінки впевненості, вирішуючи проблему надмірної впевненості в моделях міркування штучного інтелекту.
Команди, що займаються машинним навчанням (ML), стикаються з проблемою відстежуваності моделей, але поєднання DVC, SageMaker AI та MLflow Apps дозволяє вирішити цю проблему. Цей інтегрований робочий процес гарантує, що кожна модель пов’язана з конкретними даними, на яких вона була навчена, що має вирішальне значення для галузей, що підлягають регулюванню, таких як охорона здоров’я та фінанси.
Навчання потужних моделей штучного інтелекту гальмується через брак спеціалізованих даних, але платформа Simula, розроблена Google та EPFL, пропонує прозоре та масштабоване рішення. Simula вирішує проблему генерації синтетичних даних, одночасно контролюючи якість, різноманітність та складність за допомогою таксономій, мета-підказок та подвійних критиків.
Програма об'єднує кілька варіантів обчислення псевдооберненої матриці Мура-Пенроуза за допомогою алгоритмів QR-розкладу. Варіанти Хаусхолдера, Грама-Шмідта та Гівенса успішно пройшли ретельне тестування на випадкових матрицях.
Представляємо ml-intern: ваш AI-помічник для робочого процесу після навчання великих мовних моделей
ml-intern від Hugging Face автоматизує робочі процеси після навчання для великих мовних моделей (LLM), перевершуючи існуючі найкращі результати (SOTA) на PostTrainBench. Ця система використовує генерацію синтетичних даних та GRPO для ефективного навчання та оцінювання.
Створіть омніканальну систему голосового замовлення з використанням Amazon Bedrock AgentCore та Amazon Nova 2 Sonic для природної голосової взаємодії. Розгорніть інфраструктуру, підключіть ШІ-агента до серверних служб та проведіть тестування за реалістичними сценаріями для забезпечення ефективної роботи голосових ШІ-додатків.
Інстанції G7e з графічними процесорами NVIDIA RTX PRO 6000 на платформі Amazon SageMaker AI пропонують високоефективні та економічно вигідні рішення для розгортання великих мовних моделей, маючи вдвічі більший обсяг пам’яті графічного процесора порівняно з попередніми поколіннями. Ці інстанції забезпечують до 2,3-кратного підвищення продуктивності інференції, що дозволяє реалізовувати сценарії...