Блог

Материалы по исследованию, разработке и обучению ИИ

PyTorch

PyTorch и TensorFlow: в чем разница? Обе библиотеки Python с открытым исходным кодом, которые используют графики для выполнения числовых вычислений над данными. Оба они широко используются в академических исследованиях и коммерческом секторе. Оба они расширены различными API, платформами облачных вычислений и репозиториями моделей.

Head Attention

Механизм Attention (внимание) в настоящее время встречается в самых различных архитектурах и задачах (перевод, генерация текста, аннотация изображений). Алгоритм внимания анализирует и выделяет зависимости между элементами входной и выходной последовательностей. Его называют "обобщенный механизм внимания" и изначально он был предложен для работы в моделях машинного перевода с использованием рекуррентных сетей. Attention решал задачу долгосрочной памяти в переводе длинных предложений. Такой подход значительно превысил результаты ранее рассмотренных нами рекуррентных нейронных сетей на основе LSTM блоков.

Как мы учим компьютер думать. Урок 5

Итак, у нас продолжение серии семинаров "Как мы учим компьютер думать". Сегодня семинар посвящен динамике. Также изучим алгоритм вывода и более подробно рассмотрим модуль Merge. Получим множество моделей мира, тривиальных и не очень, и увидим, насколько неочевидным может быть решение поставленной задачи.

Как мы учим компьютер думать. Урок 4

Как и предыдущих семинарах, сегодня продолжаем рассматривать задачу построения интеллектуальной системы, способной понимать информацию об ограниченном мире. Теперь в этой системе также будут присутствовать базовые действия.

На время отойдем от мира ящиков, наш искусственный интеллект постепенно начинает учиться понимать отношения действий (подойти, что-то взять, что-то куда-то положить) и мы его продолжаем учить в этом пространстве действий и отношений и строить адекватные модели, которые будут правдоподобны в нашем ограниченном мире.

Как мы учим компьютер думать. Урок 3

Продолжаем наши семинары, посвященные вопросам машинного обучения. Сегодня коротко повторим предыдущий урок и немного углубимся в теоретическую часть. Основная задача семинара - закончить те отношения, которые описывают в обыденном мире условно закрытые ящики, обсудить понятия закрытого и открытого мира и наметить пути выхода за рамки этой достаточно ограниченной модели к более реалистичным задачам.

Как мы учим компьютер думать. Урок 2

Сегодня у нас вторая часть серии семинаров, посвященных тому, как мы учим компьютер думать. В этом семинаре мы будем обсуждать самые базовые статические аспекты логического подхода. Также мы сконцентрируемся на топологических аспектах, размеры и расстояния рассмотрим позже.

Семинар состоит из двух частей: сначала вспомним математическую логику, а затем подробно разберем аксиоматику мира кубиков, который является базовой моделью для математического вывода и построения аксиом.

Как мы учим компьютер думать. Урок 1

В этом курсе семинаров мы будем рассматривать достаточно узкую специальную задачу: построение интеллектуальной системы, способной понимать информацию об ограниченном мире. Фраза "ограниченный мир" означает лишь то, что мы не стремимся на первом этапе к тому, чтобы компьютер понимал все (биржевые сводки, правила бейсбола и т.д.). Это может быть вполне простой обыденный мир, мир внутри дома, рядом с домом, мир простых взаимодействий между людьми.

Семантика и технология Word2Vec

Word2vec — метод эффективного создания вложений, разработанный в 2013 году. Кроме работы со словами, некоторые его концепции оказались эффективны в разработке рекомендательных механизмов и придании смысла данным даже в коммерческих, неязыковых задачах. Вы можете заметить, что все современные приложения NLP основываются на алгоритмах word2vec. Сегодня рассмотрим технологию Word2Vec совместно с методами представления знаний в интеллектуальных системах.

Keras. Свёрточные нейронные сети

Сверточная нейронная сеть (также CNN или ConvNet) является одним из наиболее популярных алгоритмов в глубоком обучении. Это такой вид машинного обучения, при котором модель учится выполнять задачи классификации непосредственно на изображении, видео, тексте или звуке.

Сегодня мы узнаем, что же делает сверточные нейронные сети такими полезными. Рассмотрим их на практике, обучим геометрии и протестируем.

SVM. Метод опорных векторов

В сегодняшнем семинаре познакомимся с одним из популярных методов обучения с учителем, который применяется для решения задач классификации и регрессии. Данный алгоритм, который также известен как метод классификатора с максимальным зазором, имеет широкое применение на практике и может решать как линейные так и нелинейные задачи.

Основная идея метода заключается в построении гиперплоскости, разделяющей объекты выборки оптимальным способом.

Распознавание рукописных цифр

Популярной демонстрацией способности методов глубокого обучения является распознавание объектов в данных изображений.

Сегодня вы узнаете, как разработать модель глубокого обучения для задачи распознавания рукописных цифр MNIST в Python с использованием библиотеки глубокого обучения Keras.

Как мы видим то, что видим?

Сегодня мы поговорим о том, как устроено зрение человека с точки зрения психологии и нейрофизиологии.

Специальный гость нашего семинара - Леонид Савченко, старший научный сотрудник института неврологии UCL Queen Square в Лондоне, факультет наук о мозге.

Классические методы распознавания

В сегодняшнем семинаре познакомимся с одним из популярных методов обучения с учителем, который применяется для решения задач классификации и регрессии. Данный алгоритм, который также известен как метод классификатора с максимальным зазором, имеет широкое применение на практике и может решать как линейные так и нелинейные задачи.

Основная идея метода заключается в построении гиперплоскости, разделяющей объекты выборки оптимальным способом.