В этой статье рассматриваются методы создания наборов данных тонкой настройки для генерации запросов на языке Cypher из текста с использованием больших языковых моделей (LLM) и предопределенной схемы графа. Автор также упоминает о текущем проекте, целью которого является разработка всеобъемлющего набора данных для тонкой настройки с использованием подхода "человек в цикле".
В клинике MIT Abdul Latif Jameel Clinic for Machine Learning in Health обсуждался вопрос о том, следует ли полностью объяснять "черный ящик" процесса принятия решений моделями ИИ для получения разрешения FDA. Мероприятие также подчеркнуло необходимость образования, доступности данных и сотрудничества между регулирующими органами и медицинскими специалистами при регулировании ИИ в здравоохранении.
Нейробиологи из Массачусетского технологического института обнаружили, что предложения с необычной грамматикой или неожиданным смыслом вызывают более сильную реакцию в центрах обработки языка мозга, в то время как простые предложения практически не задействуют эти области. Исследователи использовали искусственную языковую сеть, чтобы предсказать реакцию мозга на различные предложения.
MIT Policy Hackathon объединяет студентов и профессионалов со всего мира для решения социальных проблем с помощью инструментов генеративного ИИ, таких как ChatGPT. Команда-победитель "Ctrl+Alt+Defeat" занимается решением проблемы выселения в США.
Риск смертельного исхода в авиации составляет 0,11, что делает ее одним из самых безопасных видов транспорта. Ученые MIT рассматривают авиацию как модель для регулирования ИИ в здравоохранении, чтобы гарантировать, что маргинальные пациенты не пострадают от предвзятых моделей ИИ.
Стартап Atacama Biomaterials, объединяющий архитектуру, машинное обучение и химическую инженерию, разрабатывает экологически чистые материалы, имеющие множество применений. Их технология позволяет создавать библиотеки данных и материалов с помощью ИИ и ОД, производя региональные, компостируемые пластики и упаковку.
В статье обсуждается важность понимания контекстных окон при обучении и использовании трансформеров, особенно с появлением проприетарных LLM и таких техник, как RAG. В ней рассматривается, как различные факторы влияют на максимальную длину контекста, которую может обработать модель трансформатора, и задается вопрос, всегда ли больше - значит лучше.
В 2017 году Google Brain представил Transformer - гибкую архитектуру, которая превзошла существующие подходы к глубокому обучению и теперь используется в таких моделях, как BERT и GPT. GPT, модель декодера, использует задачу языкового моделирования для генерации новых последовательностей и следует двухэтапной схеме предварительного обучения и тонкой настройки.
OpenAI представляет обновления моделей ИИ ChatGPT, устраняя проблему "лени" в GPT-4 Turbo и выпуская новую модель GPT-3.5 Turbo с более низкой ценой. Пользователи сообщали о снижении глубины выполнения заданий в ChatGPT-4, что побудило OpenAI принять ответные меры.
Компания OpenAI выпустила простой в использовании веб-инструмент для создания собственных ИИ-помощников без кодирования, для чего требуется только учетная запись Google или Microsoft и подписка OpenAI Plus на 20 долларов в месяц. Пользователи могут персонализировать имя, изображение, тон и стиль взаимодействия своего ИИ-помощника, а также расширить его знания, загрузив определенные документы.
Генеративные приложения ИИ, использующие большие языковые модели (БЯМ), имеют большую экономическую ценность, но управление безопасностью, конфиденциальностью и соответствием нормативным требованиям имеет решающее значение. В этой статье представлены рекомендации по устранению уязвимостей, внедрению передовых методов обеспечения безопасности и разработке стратегий управления рисками для прилож...
Разработка приложений для LLM может быть одновременно интересной и сложной задачей, поскольку при этом необходимо учитывать безопасность, производительность и стоимость. Если начать с приложений с низким уровнем риска и придерживаться политики "сначала дешевые LLM", это поможет снизить риски и сократить объем работ, необходимых для запуска.
В этой статье рассматриваются ограничения, связанные с использованием больших языковых моделей (LLM) для анализа разговорных данных, и в качестве альтернативы предлагается методология "Рецепты данных". Эта методология позволяет создать библиотеку рецептов данных многократного использования, что улучшает время отклика и позволяет внести свой вклад в развитие сообщества.
В этой статье рассматривается монокулярная оценка глубины (MDE) и ее важность для приложений компьютерного зрения. В ней рассказывается о том, как загрузить и визуализировать данные карты глубины, выполнить вывод с помощью Marigold и DPT, а также оценить прогнозы глубины с помощью набора данных SUN RGB-D.
GeForce NOW повышает уровень компьютерных игр на мобильных устройствах благодаря поддержке высокого разрешения на Android, предлагая захватывающий геймплей на ходу. В библиотеку добавлены новые игры: Stargate: Timekeepers, Enshrouded и Metal: Hellsinger.