Исследование MIT показывает, что большие языковые модели (LLM) могут давать неправильные ответы из-за выученных грамматических шаблонов. Исследователи разрабатывают процедуру тестирования, чтобы снизить риск создания LLM вредного контента.
Amazon SageMaker HyperPod представляет разделение GPU с помощью NVIDIA MIG, что позволяет выполнять несколько задач на одном GPU. Это повышает эффективность, сокращает время ожидания и максимально увеличивает использование GPU для различных рабочих нагрузок.
Black Forest Labs выпускает FLUX. 2 модели генерации изображений с фотореалистичными деталями и функцией мультиреференции. Сотрудничество NVIDIA и ComfyUI оптимизирует производительность и снижает требования к VRAM на 40%.
Исследователи обнаружили, что крупные языковые модели испытывают трудности с пониманием юмора, эмпатии и культурных нюансов, что подчеркивает их ограниченность. Исследование в области искусственного интеллекта показывает, что крупные языковые модели не понимают каламбуров, что дает надежду умным комикам и остроумным писателям.
Трейдеры ожидают бюджетного выступления Рэйчел Ривз, а искусственный интеллект Deutsche Bank анализирует ее слова на предмет влияния на рынок. Миллиарды фунтов стерлингов в ордерах на покупку и продажу готовы к оповещениям о любых неожиданных цифрах.
ИИ может как затруднить, так и поддержать энергетический переход. Он оптимизирует операции, прогнозирует сбои и помогает в поиске новых материалов. Форум MIT по энергоснабжению центров обработки данных занимается решением проблем, связанных с потреблением энергии центрами обработки данных.
Эми Редфорд ценит любовь поклонников, но критикует посвященные ее покойному отцу Роберту Редфорду выступления AI как «выдумки». Она благодарна за огромную поддержку и истории со всего мира.
Ведущая благотворительная организация NFER прогнозирует, что к 2035 году в Великобритании может исчезнуть до 3 миллионов низкоквалифицированных рабочих мест из-за автоматизации и искусственного интеллекта, особенно в сфере торговли и машиностроения. Согласно отчету, административные должности также подвержены высокому риску.
Канадские организации теперь могут получить доступ к передовым базовым моделям, таким как Claude Sonnet 4.5 от Anthropic на Amazon Bedrock, с помощью межрегионального вывода (CRIS), что ускоряет реализацию инициатив в области искусственного интеллекта. CRIS обеспечивает более высокую пропускную способность и производительность, безопасно распределяя обработку вывода между несколькими регионами...
Amazon Bedrock теперь поддерживает модели OpenAI GPT-OSS с 20 и 120 миллиардами параметров, предлагая расширенные возможности логического мышления. Организации могут легко перейти на AWS для повышения безопасности и масштабируемости, одновременно с легкостью развертывая модели GPT-OSS для различных приложений.
Amazon SageMaker HyperPod теперь поддерживает интерактивные среды разработки, такие как JupyterLab и VS Code, что упрощает разработку ML. Новое дополнение Amazon SageMaker Spaces позволяет создавать автономные среды, максимально эффективно использовать инвестиции в GPU и упростить процессы разработки.
Claude Opus 4.5 от Anthropic, доступный в Amazon Bedrock, устанавливает новый стандарт в области возможностей искусственного интеллекта, превосходя предыдущие модели при стоимости, в три раза ниже. Opus 4.5 превосходит другие продукты в области разработки программного обеспечения и офисной производительности, преобразуя проекты разработки и обрабатывая сложные задачи.
Искусственный интеллект усиливает насилие в отношении женщин и девочек: каждый четвертый человек нейтрально относится к несогласованным дипфейкам, предупреждает британская полиция. Технологические компании являются соучастниками этой эпидемии.
Clifford Chance сокращает 50 рабочих мест в Лондоне из-за влияния искусственного интеллекта. PwC прогнозирует, что искусственный интеллект может привести к сокращению числа новых рабочих мест в будущем.
Эксперт по этике искусственного интеллекта Криста Павлоски подчеркивает этические проблемы модерации искусственного интеллекта на Amazon Mechanical Turk. Опыт Павлоски показывает, что в задачах модерации контента искусственного интеллекта скорость ставится выше безопасности.