5 октября 2016, 11:50

Fujitsu в 2 раза увеличивает масштабы нейронных сетей для глубинного обучения

Fujitsu объявила о разработке технологии, которая оптимизирует использование внутренней памяти графических процессоров (GPU) с целью поддержать увеличивающиеся масштабы нейронных сетей, используемых для повышения точности машинного обучения.

Новая разработка до 2 раз увеличивает масштаб нейронных сетей по сравнению с технологиями, которые были доступны ранее.

На протяжении последних лет технология глубинного обучения все активнее используется специалистами в качестве метода машинного обучения, который имитирует структуру человеческого мозга. Чем больше слоев имеет нейронная сеть, тем точнее она обрабатывает рабочие задачи, например, задачи по распознаванию и систематизации. Для повышения точности масштаб сетей увеличивался, но время обучения также возрастало. Поэтому специалисты обратили свое внимание на графические процессоры, которые выполняют вычисления больших объемов данных, и на технологию, ускоряющую процесс обработки данных, используя параллельно несколько графических процессоров, как это происходит в суперкомпьютерах.

Одним из методов увеличения масштаба глубинного обучения является распределение одной модели нейронной сети на нескольких компьютерах и выполнение вычислений параллельно. Но большой объем данных, который должен передаваться между компьютерами, создает «пробки», значительно снижая скорость выполнения задач. Для того чтобы воспользоваться всеми возможностями графических процессоров для высокоскоростных вычислений, данные должны храниться во внутренней памяти самих процессоров. Однако, этот объем, как правило, меньше объема памяти обычных компьютеров, что ограничивает возможности по увеличения масштаба нейронных сетей.

Fujitsu разработала технологию для повышения эффективности использования памяти и увеличения масштаба нейронных сетей для вычислений с одним графическим процессором. В новинке не используются методы параллельной организации работы, которые значительно уменьшают скорость чтения. Новая технология уменьшает необходимый объем памяти за счет повторного использования ресурсов: она позволяет в независимом режиме выполнять вычисления для создания данных промежуточных ошибок из взвешенных данных и вычисления для создания взвешенных данных из промежуточных данных. Когда обучение начинается, структура каждого слоя нейронной сети анализируется, и порядок вычислений изменяется для того, чтобы область памяти, в которой расположен больший объем данных, могла повторно использоваться.

Fujitsu использовала новую технологию в рамках платформы для глубинного обучения с открытым исходным кодом Caffe, измерив уровень потребления внутренней памяти GPU. После запуска обучения технология анализирует структуру нейронной сети и оптимизирует порядок выполнения вычислений и расположение данных в памяти для того, чтобы свободная область памяти могла эффективно повторно использоваться. При использовании ее совместно с AlexNet и VGGNet1, нейронными сетями распознавания изображений, которые широко используются для научных исследований, новая технология Fujitsu до 2 раз увеличила масштаб нейронной сети по сравнению с предыдущими аналогами. Таким образом, используемый объем внутренней памяти графического процессора был уменьшен более чем на 40%.

Fujitsu планирует начать серийное использование новой технологии с 31 марта 2017 г. в рамках проекта искусственного интеллекта Human Centric AI Zinrai. Кроме того, компания планирует использовать эту технологию вместе с ранее представленной технологией для обработки данных в рамках глубинного обучения методом параллелизации графических процессоров.


Оцените новость:
  • 0 оценок