Дослідники з Google Cloud AI, Університету Іллінойсу в Урбана-Шампейн та Єльського університету представляють ReasoningBank — фреймворк пам’яті, який аналізує причини успіху чи невдачі завдань, що виконуються агентами штучного інтелекту. Існуючі системи пам’яті агентів мають серйозні «сліпі зони», натомість ReasoningBank вибирає релевантні спогади для підвищення ефективності роботи.
Досягнення в галузі штучного інтелекту в сфері охорони здоров’я дозволяють об’єднати розрізнені потоки даних, що сприяє прийняттю більш обґрунтованих рішень у сфері персоналізованої медицини. Мультимодальні біо-FM, такі як Latent-X1 та Evo 2, кардинально змінюють процес пошуку нових ліків та клінічних досліджень завдяки моделям штучного інтелекту, навченим на різноманітних біологічних наборах ...
Дослідники з Массачусетського технологічного інституту (MIT) розробили метод RLCR для підвищення точності оцінок впевненості моделей штучного інтелекту, що дозволяє зменшити кількість помилок на 90 % без втрати загальної точності. Ця техніка навчає моделі надавати відкалібровані оцінки впевненості, вирішуючи проблему надмірної впевненості в моделях міркування штучного інтелекту.
Автор ділиться досвідом застосування набору даних про діабет у регресійній моделі на основі нейронної мережі, написаній на C#, яка дозволяє точно прогнозувати показники діабету. Завдяки нормалізації даних та налаштуванням нейронної мережі було отримано результати, порівнянні з результатами інших регресійних моделей.
TrendMicro вдосконалює сервіс чат-ботів на базі штучного інтелекту, додавши функцію «корпоративної пам’яті» в Amazon Bedrock, що працює на базі Amazon Neptune та Mem0. Така архітектура дозволяє чат-боту згадувати історію взаємодій, отримувати корпоративні знання та надавати індивідуальні відповіді, що покращує користувацький досвід.
Використання моделі NVIDIA Parakeet-TDT-0.6B-v3 у сервісі AWS Batch на інстанціях з прискоренням на базі графічного процесора дозволяє швидше та економічніше здійснювати транскрипцію аудіофайлів різними європейськими мовами. Архітектура «Token-and-Duration Transducer» цієї моделі в
Представляємо ml-intern: ваш AI-помічник для робочого процесу після навчання великих мовних моделей
ml-intern від Hugging Face автоматизує робочі процеси після навчання для великих мовних моделей (LLM), перевершуючи існуючі найкращі результати (SOTA) на PostTrainBench. Ця система використовує генерацію синтетичних даних та GRPO для ефективного навчання та оцінювання.
Команди, що займаються машинним навчанням (ML), стикаються з проблемою відстежуваності моделей, але поєднання DVC, SageMaker AI та MLflow Apps дозволяє вирішити цю проблему. Цей інтегрований робочий процес гарантує, що кожна модель пов’язана з конкретними даними, на яких вона була навчена, що має вирішальне значення для галузей, що підлягають регулюванню, таких як охорона здоров’я та фінанси.
Навчання потужних моделей штучного інтелекту гальмується через брак спеціалізованих даних, але платформа Simula, розроблена Google та EPFL, пропонує прозоре та масштабоване рішення. Simula вирішує проблему генерації синтетичних даних, одночасно контролюючи якість, різноманітність та складність за допомогою таксономій, мета-підказок та подвійних критиків.
Програма об'єднує кілька варіантів обчислення псевдооберненої матриці Мура-Пенроуза за допомогою алгоритмів QR-розкладу. Варіанти Хаусхолдера, Грама-Шмідта та Гівенса успішно пройшли ретельне тестування на випадкових матрицях.
ToolSimulator у Strands Evals дозволяє безпечно тестувати агентів штучного інтелекту за допомогою зовнішніх інструментів у великих обсягах, уникаючи ризиків, пов’язаних із реальними викликами API та статичними макетами. Це допомагає виявляти помилки на ранніх етапах, ретельно тестувати крайні випадки та забезпечувати безперебійну інтеграцію агентів, готових до впровадження у виробництво.
Створіть омніканальну систему голосового замовлення з використанням Amazon Bedrock AgentCore та Amazon Nova 2 Sonic для природної голосової взаємодії. Розгорніть інфраструктуру, підключіть ШІ-агента до серверних служб та проведіть тестування за реалістичними сценаріями для забезпечення ефективної роботи голосових ШІ-додатків.
Інстанції G7e з графічними процесорами NVIDIA RTX PRO 6000 на платформі Amazon SageMaker AI пропонують високоефективні та економічно вигідні рішення для розгортання великих мовних моделей, маючи вдвічі більший обсяг пам’яті графічного процесора порівняно з попередніми поколіннями. Ці інстанції забезпечують до 2,3-кратного підвищення продуктивності інференції, що дозволяє реалізовувати сценарії...
Табличні дані відіграють ключову роль у машинному навчанні, а деревоподібні моделі, такі як TabPFN, кидають виклик традиційним підходам, перевершуючи за ефективністю XGBoost та CatBoost. TabPFN-2.5 забезпечує кращу продуктивність, зменшує обсяг ручної роботи та прискорює процес інференції для практичного впровадження.
xAI, компанія Ілона Маска, що спеціалізується на штучному інтелекті, запускає API-інтерфейси для перетворення мови в текст та тексту в мову, стаючи серйозним конкурентом провідних гравців на ринку API-інтерфейсів для обробки мови. API-інтерфейси Grok пропонують такі розширені функції, як ідентифікація мовців, часові мітки на рівні слів та висока точність транскрипції.