Проект, использующий UCI Email Spam Dataset с 4 601 строкой и 57 столбцами значений предикторов. Утилита для получения тестовых данных для программ машинного обучения.
Исследователи из Массачусетского технологического института и лаборатории искусственного интеллекта MIT-IBM Watson разработали методику оценки надежности базовых моделей, таких как ChatGPT и DALL-E, перед их внедрением. Обучив набор немного отличающихся моделей и оценив их согласованность, они могут ранжировать модели на основе оценок надежности для различных задач.
Выставка Electric Dreams в Tate Modern рассказывает о художниках, которые воспринимают искусственный интеллект как возможность, а не угрозу, демонстрируя их давние отношения с технологиями. Директор Кэтрин Вуд подчеркивает симбиоз искусства и технологий, подчеркивая их прочную связь.
Дубляж видео необходим для преодоления языковых барьеров в индустрии СМИ и развлечений. MagellanTV сотрудничает с Mission Cloud, чтобы произвести революцию в автодублировании видео с помощью Amazon Translate и Bedrock.
Mixbook, сервис фотокниг №1 в США, использовал AWS для персонализации фотокниг с помощью генеративного искусственного интеллекта. Mixbook Smart Captions творчески интерпретирует фотографии пользователей, улучшая повествование и делая воспоминания легкими.
Компании, занимающиеся разработкой искусственного интеллекта, стремятся к великим свершениям, но потребность в энергии ставит под угрозу экологические цели. Можно ли вовремя решить энергетическую проблему ИИ? Узнайте от Джиллиан Амброуз и Алекса Херна из Guardian.
Проект VerifAI, финансируемый ЕС, создает уникальную генеративную поисковую систему для биомедицинской области с использованием LLM. От других продуктов на основе RAG его отличает фокус на обнаружении галлюцинаций, что позволяет решить проблему недостоверного текста.
Квантильное прогнозирование предсказывает экстремальные значения распределения для более эффективного принятия решений в таких отраслях, как финансы и управление цепочками поставок. Tensorflow, NeuralForecast и Zero-shot LLM предлагают передовые модели для точной оценки квантилей, повышая эффективность работы.
Рекомендательные системы искусственного интеллекта отлично справляются с предложением похожих товаров, но испытывают трудности с дополняющими товарами. Фреймворк zeroCPR предлагает доступное решение для обнаружения взаимодополняющих продуктов с помощью технологии LLM.
Используя алгоритм на основе вкраплений GloVe, достигаем 100 % точности в игре "Codenames", автоматизируя роли шпионов и оперативников. Представление значения слова с помощью предварительно обученных вкраплений GloVe позволяет добиться максимальной точности в расшифровке подсказок и эффективном выборе слов.
Технический директор Microsoft Кевин Скотт подчеркивает потенциал законов масштабирования больших языковых моделей в развитии прогресса ИИ. Скотт сыграл решающую роль в заключении сделки о совместном использовании технологий на сумму 13 миллиардов долларов между Microsoft и OpenAI, подчеркнув влияние масштабирования размера модели и обучающих данных на возможности ИИ.
Рене ДиРеста, бывший руководитель Стэнфордской интернет-обсерватории, в своей новой книге углубляется в тему сетевой пропаганды. Она рассказывает об эволюции пропаганды и ее влиянии на общество, подчеркивая необходимость более точной диагностики этой проблемы.
Оружие с искусственным интеллектом находит все большее применение в военной сфере, а такие компании, как Elbit Systems, лидируют в разработке смертоносных автономных беспилотников. Эта отрасль переживает бум, поскольку оборонные компании демонстрируют свои достижения в области технологий ИИ для боевых целей.
Динамическое программирование и алгоритмы Монте-Карло объединяются в обучении с подкреплением. Темпорально-разностные алгоритмы сочетают преимущества обоих, обновляя состояния после n временных шагов.
Разоблачители OpenAI добиваются расследования ограничительных контрактов, требующих разрешения на контакты с регулирующими органами, что потенциально может подавить беспокойство о компании. Соглашения о неразглашении информации в OpenAI тщательно изучаются на предмет возможных последствий для сотрудников, поднимающих вопросы перед федеральными властями.