Стрічка новин про штучний інтелект і машинне навчання

Головні новини та публікації щодня! Будьте на крок попереду: дізнавайтеся першими про нові ідеї, тренди та інновації у сфері технологій

Велика бібліотека математичних задач Массачусетського технологічного інституту тепер доступна для всіх

MathNet, створений дослідниками з MIT, KAUST та HUMAIN, є найбільшим набором даних із математичних задач, що містять доведення, який охоплює 47 країн та 17 мов. Він представляє собою централізовану колекцію високоякісних задач та рішень із міжнародних математичних олімпіад, пропонуючи моделям штучного інтелекту та учням багатий ресурс для вивчення математичного мислення.

DeepSeek AI презентує революційну функцію обробки контексту з обсягом у мільйон токенів

DeepSeek-AI представляє серію DeepSeek-V4 з інноваційними моделями MoE, що підтримують контекстні вікна розміром у мільйон токенів. Гібридна архітектура уваги та технологія Manifold-Constrained Hyper-Connections кардинально змінюють підхід до вирішення завдань із довгим контекстом.

Роз'єднана система DiLoCo: досягнення продуктивності на рівні 88% попри високу частоту відмов апаратного забезпечення

Google DeepMind представляє Decoupled DiLoCo — розподілену архітектуру навчання, яка усуває вузькі місця, пов’язані із синхронізацією, та дозволяє здійснювати попереднє навчання великих мовних моделей у географічно віддалених дата-центрах. Decoupled DiLoCo зменшує вимоги до пропускної здатності між дата-центрами з 198 Гбіт/с до всього 0,84 Гбіт/с, що робить навчання в глобальному масштабі реал...

Представляємо ReasoningBank: фреймворк штучного інтелекту від Google для обробки пам'яті

Дослідники з Google Cloud AI, Університету Іллінойсу в Урбана-Шампейн та Єльського університету представляють ReasoningBank — фреймворк пам’яті, який аналізує причини успіху чи невдачі завдань, що виконуються агентами штучного інтелекту. Існуючі системи пам’яті агентів мають серйозні «сліпі зони», натомість ReasoningBank вибирає релевантні спогади для підвищення ефективності роботи.

Революція в сфері догляду за пацієнтами завдяки мультимодальним біологічним моделям

Досягнення в галузі штучного інтелекту в сфері охорони здоров’я дозволяють об’єднати розрізнені потоки даних, що сприяє прийняттю більш обґрунтованих рішень у сфері персоналізованої медицини. Мультимодальні біо-FM, такі як Latent-X1 та Evo 2, кардинально змінюють процес пошуку нових ліків та клінічних досліджень завдяки моделям штучного інтелекту, навченим на різноманітних біологічних наборах ...

Незадовільні результати: регресія на основі нейронної мережі на наборі даних про діабет у C#

Автор ділиться досвідом застосування набору даних про діабет у регресійній моделі на основі нейронної мережі, написаній на C#, яка дозволяє точно прогнозувати показники діабету. Завдяки нормалізації даних та налаштуванням нейронної мережі було отримано результати, порівнянні з результатами інших регресійних моделей.

Ефективна багатомовна транскрипція аудіозаписів за допомогою Parakeet-TDT та AWS Batch

Використання моделі NVIDIA Parakeet-TDT-0.6B-v3 у сервісі AWS Batch на інстанціях з прискоренням на базі графічного процесора дозволяє швидше та економічніше здійснювати транскрипцію аудіофайлів різними європейськими мовами. Архітектура «Token-and-Duration Transducer» цієї моделі в

Розкриття потенціалу корпоративної пам'яті за допомогою Amazon Neptune та Mem0

TrendMicro вдосконалює сервіс чат-ботів на базі штучного інтелекту, додавши функцію «корпоративної пам’яті» в Amazon Bedrock, що працює на базі Amazon Neptune та Mem0. Така архітектура дозволяє чат-боту згадувати історію взаємодій, отримувати корпоративні знання та надавати індивідуальні відповіді, що покращує користувацький досвід.

Прийняття невизначеності: виховуючи в штучному інтелекті скромність

Дослідники з Массачусетського технологічного інституту (MIT) розробили метод RLCR для підвищення точності оцінок впевненості моделей штучного інтелекту, що дозволяє зменшити кількість помилок на 90 % без втрати загальної точності. Ця техніка навчає моделі надавати відкалібровані оцінки впевненості, вирішуючи проблему надмірної впевненості в моделях міркування штучного інтелекту.

DVC та SageMaker: оптимізація наскрізного відстеження походження даних

Команди, що займаються машинним навчанням (ML), стикаються з проблемою відстежуваності моделей, але поєднання DVC, SageMaker AI та MLflow Apps дозволяє вирішити цю проблему. Цей інтегрований робочий процес гарантує, що кожна модель пов’язана з конкретними даними, на яких вона була навчена, що має вирішальне значення для галузей, що підлягають регулюванню, таких як охорона здоров’я та фінанси.

Simula від Google: революція у створенні синтетичних наборів даних для штучного інтелекту

Навчання потужних моделей штучного інтелекту гальмується через брак спеціалізованих даних, але платформа Simula, розроблена Google та EPFL, пропонує прозоре та масштабоване рішення. Simula вирішує проблему генерації синтетичних даних, одночасно контролюючи якість, різноманітність та складність за допомогою таксономій, мета-підказок та подвійних критиків.

Ефективний обчислення псевдооберненої матриці Мура-Пенроуза на C#

Програма об'єднує кілька варіантів обчислення псевдооберненої матриці Мура-Пенроуза за допомогою алгоритмів QR-розкладу. Варіанти Хаусхолдера, Грама-Шмідта та Гівенса успішно пройшли ретельне тестування на випадкових матрицях.

Представляємо ml-intern: ваш AI-помічник для робочого процесу після навчання великих мовних моделей

ml-intern від Hugging Face автоматизує робочі процеси після навчання для великих мовних моделей (LLM), перевершуючи існуючі найкращі результати (SOTA) на PostTrainBench. Ця система використовує генерацію синтетичних даних та GRPO для ефективного навчання та оцінювання.

Оптимізація омніканального оформлення замовлень за допомогою AgentCore та Nova 2 Sonic від Amazon

Створіть омніканальну систему голосового замовлення з використанням Amazon Bedrock AgentCore та Amazon Nova 2 Sonic для природної голосової взаємодії. Розгорніть інфраструктуру, підключіть ШІ-агента до серверних служб та проведіть тестування за реалістичними сценаріями для забезпечення ефективної роботи голосових ШІ-додатків.

Покращуйте продуктивність інференції ШІ за допомогою інстансів G7e на Amazon SageMaker

Інстанції G7e з графічними процесорами NVIDIA RTX PRO 6000 на платформі Amazon SageMaker AI пропонують високоефективні та економічно вигідні рішення для розгортання великих мовних моделей, маючи вдвічі більший обсяг пам’яті графічного процесора порівняно з попередніми поколіннями. Ці інстанції забезпечують до 2,3-кратного підвищення продуктивності інференції, що дозволяє реалізовувати сценарії...