ArticlePDF Available

Program Parallelization Methods Implemented in Optimizing Compiler

Authors:

Abstract

Program parallelization methods, which utilize instruction level parallelism, short vector instruction parallelism, and thread level parallelism, implemented in an optimizing compiler are considered. These methods are general because they are applied for two different multiprocessor architectures: «Elbrus» – with an explicit instruction parallelism and «MCST-R» – with an in-order superscalar parallelism. Both architectures have (different) set of vector instructions and support cache coherent shared memory multiprocessing. Results of parallelization are presented.
К.т.н. В.Ю. Волконский, А.В. Брегер, А.Ю. Бучнев, А.В. Грабежной,
к.т.н. А.В. Ермолицкий, к.т.н. Л.Е. Муханов, к.ф.-м.н. М.И. Нейман-заде,
П.А. Степанов, О.А. Четверина (ОАО «ИНЭУМ им. И.С. Брука», ЗАО «МЦСТ»)
V. Volkonskiy, A. Breger, A. Buchnev, A. Grabezhnoy, A. Ermolitsky, L. Mukhanov,
M. Neiman-zade, P. Stepanov, O. Chetverina
МЕТОДЫ РАСПАРАЛЛЕЛИВАНИЯ ПРОГРАММ В ОПТИМИЗИРУЮЩЕМ
КОМПИЛЯТОРЕ
Program Parallelization Methods Implemented in Optimizing Compiler
Рассматриваются методы распараллеливания программ в
оптимизирующем компиляторе, использующие параллелизм
операций, коротких векторов и параллельных потоков управления.
Предложенные методы являются достаточно универсальными,
т.к. они практически применяются для двух архитектурных
платформ: «Эльбрус» с явным параллелизмом операций и «МЦСТ-
с суперскалярным исходном порядке) выполнением операций,
при этом обе платформы содержат короткие (несовпадающие)
векторные операции и поддерживают многопроцессорность на
общей памяти. Приводятся результаты практического
использования данных методов распараллеливания.
Ключевые слова: оптимизирующий компилятор, явный
параллелизм операций, операции над векторами, векторизация,
параллелизм потоков управления, иерархия памяти,
распараллеливание.
Program parallelization methods, which utilize instruction level
parallelism, short vector instruction parallelism, and thread level
parallelism, implemented in an optimizing compiler are considered.
These methods are general because they are applied for two different
multiprocessor architectures: «Elbrus» with an explicit instruction
parallelism and «MCST- with an in-order superscalar parallelism.
Both architectures have (different) set of vector instructions and support
cache coherent shared memory multiprocessing. Results of
parallelization are presented.
Key words: optimizing compiler, instruction level parallelism,
explicit parallelism, vector instructionss, vectorization, multithreading
parallelism, memory hierarchy, parallelization.
Введение
Большинство современных микропроцессорных архитектур использует различные
методы повышения производительности исполняемых программ за счет их
распараллеливания, а именно:
конвейеризация исполнения операций – разбиение процесса исполнения на
стадии (такты) и одновременное исполнение операций, находящихся на разных стадиях
конвейера;
параллельное (одновременное) исполнение нескольких операций, находящихся
на одной стадии конвейерного исполнения;
применение одной операции к нескольким данным одновременно;
поддержка многопоточного исполнения внутри одного процессорного ядра, на
нескольких процессорных ядрах или в многопроцессорной системе, работающей на общей
памяти;
поддержка неоднородной многоядерной или многопроцессорной системы, в
которой ядра могут работать одновременно, используя при этом локальную или общую
память.
Эти методы распараллеливания требуют поддержки в оптимизирующих
компиляторах, т.к. обычные языки программирования, такие как C, C++, Fortran (начиная с
Fortran-90, есть операции над векторами), являются языками последовательного
программирования. В работе рассматриваются методы распараллеливания программ в
компиляторах, которые ориентируются на аппаратную поддержку указанных видов
параллелизма. Для исследования используется оптимизирующий компилятор с языков C,
2
C++, Fortran, реализованный для микропроцессорных архитектур «Эльбрус» и «МЦСТ-R»
(совместима с архитектурой SPARC) [1]. Обе архитектуры поддерживают конвейерное
параллельное исполнение операций, набор целочисленных и вещественных операций над
короткими векторами, а также многоядерность и многопроцессорность на общей памяти с
когерентным доступом.
Результаты представлены для архитектуры «Эльбрус» (т.к. она обеспечивает
наиболее полную аппаратную поддержку данных видов параллелизма и поддержку со
стороны оптимизирующего компилятора) и вычислительного комплекса (ВК) «Эльбрус-
3М1» [2]. Наиболее универсальный вид распараллеливания (на уровне операций)
представлен на задачах пакета SPECcpu2000 [3], а результаты векторизации и
распараллеливания на потоки управления на отдельных задачах пакетов SPEC и на
высокопроизводительных библиотеках, в которых доминируют вычисления в циклах.
1. Распараллеливание на уровне операций
Архитектура микропроцессора «Эльбрус» поддерживает одновременное
выполнение до 23 операций за такт. Операции выполняются в конвейере, поэтому с
учетом всех особенностей аппаратуры на различных стадиях исполнения одновременно
могут находиться несколько сот операций [1]. Такой значительный параллелизм требует
существенной поддержки со стороны оптимизирующего компилятора. Распараллеливание
вычислений на уровне операций является основным методом повышения
производительности компилируемых программ [4–7].
1.1. Программы со сложным управлением
Наиболее сложным является распараллеливание универсальных целочисленных
задач. Для таких задач характерно использование сложного управления (условные
переходы, небольшие циклы с условиями внутри и непредсказуемым числом повторений и
3
проч.), большого набора разнообразных (часто небольших) функций, в т.ч. и рекурсивных,
большое разнообразие структур данных, доступ к которым осуществляется через
указатели. Все эти особенности затрудняют выявление параллелизма на уровне операций
при компиляции программы.
Чтобы преодолеть указанные сложности, в компиляторе применяются различные
методы оптимизации, повышающие параллелизм операций. Подстановка функций в точку
вызова повышает параллелизм, доступный для планирования в компиляторе. Анализ
зависимостей по данным позволяет в некоторых случаях избавиться от ложных
зависимостей. Если это не удается сделать при компиляции, часть анализа переносится на
время исполнения, для чего используется специальная аппаратная поддержка в виде
спекулятивного обращения за данными в память. Для распараллеливания программ с
разветвленным управлением используются спекулятивный и предикатный режимы
исполнения операций, позволяющие выполнять некоторые вычисления заблаговременно
или одновременно для нескольких условий управления. Такой способ сокращает время
реального исполнения, но приводит к росту спекулятивного кода.
Степень агрессивности оптимизаций зависит от параллельных возможностей
архитектуры. Чем больше операций можно выполнить одновременно, тем более
агрессивные оптимизации могут применяться. Однако при одновременном спекулятивном
выполнении нескольких ветвей программы под различными условиями отдельные
операции могут приводить к взаимным помехам. Спекулятивные обращения в память
могут приводить к блокировкам из-за отсутствия данных на спекулятивных ветвях
исполнения, они могут приводить к вытравлению данных из кэш-памятей, рост кода
может увеличивать давление на подсистему памяти. Для преодоления вредных
последствий агрессивных оптимизаций используются методы профилирования
(статические и динамические), которые позволяют ограничить спекулятивный
параллелизм и рост кода программы.
4
1.2. Программы с обработкой в циклах
Наиболее полного использования возможностей параллельной архитектуры удается
достичь при распараллеливании циклов. Для этого используется метод программной
конвейеризации цикла, суть которого состоит в том, что итерации цикла совмещаются при
исполнении с небольшим сдвигом по отношению друг к другу. Такой способ
планирования применяется к самым внутренним циклам, которые повторяются много раз
(от нескольких десятков и более).
Программная конвейеризация цикла позволяет в несколько раз повысить скорость
его исполнения по сравнению с последовательным выполнением итераций. Она
применима для любой конвейерной архитектуры, но, как правило, для реализации
требуется программная раскрутка цикла и программная открутка пролога и эпилога.
Кроме этого, для сокращения потерь от промахов в кэш-памяти требуется дополнительная
программная предварительная подкачка данных. Именно так реализована конвейеризация
циклов для архитектуры «МЦСТ-R».
В архитектуре «Эльбрус» программная конвейеризация имеет мощную аппаратную
поддержку, включающую асинхронную предварительную подкачку данных, базируемые
регистры, управление прологом и эпилогом. Конвейеризация циклов с аппаратной
поддержкой дает дополнительный значительный прирост производительности 2,5–3
раза на задачах с интенсивной обработкой массивов в циклах) по сравнению с чисто
программными методами конвейеризации.
Для конвейеризации циклов в компиляторе реализуются несколько видов анализа
зависимостей, в первую очередь, анализ зависимостей по данным, включая зависимости
между обращениями в память на разных итерациях цикла, а также анализ потока
управления и потока данных. Эти же виды анализа применяются для векторизации и
распараллеливания программ, поэтому более подробно они рассмотрены в последующих
5
разделах.
1.3. Результаты распараллеливания на уровне операций
Хотя оптимизирующий компилятор может создавать параллельный код при
стандартном режиме оптимизации, для достижения предельной производительности
исполнения требуется «тонкая» настройка, которая подбирается с помощью пикового
набора флагов оптимизации для каждой задачи. Рассмотрим важнейшие оптимизации,
используемые для компиляции программ в пиковом режиме на примере задач пакета
SPECcpu2000.
Для пикового режима оптимизации необходимы наличие динамического профиля
исполнения, который формируется предварительно с помощью тренировочного запуска
программы на представительном наборе данных, а также возможность при компиляции
видеть всю программу (режим межмодульной оптимизации), что крайне важно для
умощнения анализа указателей, распространения констант и подстановки функций
непосредственно в точку вызова (inline). Работа режима межмодульной оптимизации
обеспечивается за счет сброса промежуточного представления в объектный файл при
компиляции модуля и скрытого вызова компилятора в момент запуска сборки модулей.
1.3.1. Целочисленные задачи
Межмодульные оптимизации. Подстановка функций в точку вызова (inline)
позволяет существенно сократить время исполнения и полностью использовать
параллелизм архитектуры. Из кода удаляются операции передачи параметров и результата
функции, а также операции передачи управления, а сам код функции планируется вместе с
операциями вызывающей функции. Дополнительные возможности подстановки функций
появляются за счет динамического профилирования значений (vprof), при котором
собирается информация о нескольких наиболее часто вызываемых функциях в точке
вызова по косвенности, а затем формируется код, позволяющий вызвать эти функции
6
непосредственно и, тем самым, применить к ним подстановку inline. Наличие большого
числа глобальных регистров в архитектуре «Эльбрус» наряду с локальными регистрами
позволяет размещать на них наиболее часто используемые глобальные переменные
(оптимизация globals2regs), избавившись, таким образом, от операций обращения к
памяти (что ведет к сокращению критических путей) и потерь из-за промахов в кэш.
Управление спекулятивным исполнением. Для организации спекулятивного
исполнения компилятор формирует регионы оптимизации (близкие по частоте исполнения
наборы линейных участков, связанные между собой операциями управления), для которых
выполняется преобразование в предикатную форму (if-conversion) путем исключения
части операций передачи управления и управление исполнением операций с помощью
предикатов. При выполнении этих преобразований программы в компиляторе приходится
дублировать код некоторых линейных участков с целью устранения точек схождения в
регионах, т.к. они препятствуют эффективной работе if-conversion. Важной оптимизацией
является спекулятивное исполнение по данным (dam), позволяющее переставлять
операции считывания и записи в случае, когда при компиляции неизвестно, в какие
области памяти идет обращение. Для ограничения дублирования в случае, когда
управление передается на участок с почти нулевым счетчиком исполнения, формируется
специальный регион, называемый «черной дырой» (black hole), т.к. после передачи
управления из «горячего» региона в черную дыру возврат из нее невозможен.
Ограничение спекулятивности управляется также с помощью режима Osize-selective, при
котором для наиболее «горячих» функций применяются пиковые оптимизации, а более
«холодные» (редко вызываемые) функции оптимизируются менее агрессивно, сокращая
размер кода. Есть еще некоторый набор дублирующих код оптимизаций, применение
которых приходится ограничивать на отдельных программах.
Оптимизация работы с памятью. Несмотря на то, что в целочисленных задачах
чаще всего встречаются циклы с небольшим числом повторений, в отдельных случаях
7
встречается циклы, требующие специальных оптимизаций. Для таких циклов, как
правило, требуется своевременно подкачать данные для обработки. В случае регулярных
обращений в память это удается сделать с помощью буфера предварительной подкачки
(apb). Но при нелинейных регулярных обращениях в память используется оптимизация
prefetch, а для обработки списочных структур – самообучающаяся предварительная
подкачка, конструируемая оптимизацией list prefetch. Механизм самообучения находит
наиболее популярные дистанции при размещении списков в памяти и запускает
предварительную подкачку элементов [7].
Параллелизм целочисленных задач пакета SPECcpu2000int, полученный в
результате пиковой оптимизации для ВК на базе микропроцессора «Эльбрус-S»,
представлен на рис. 1. Среднее число операций, спланированных компилятором в
выполненных широких командах (колонка «sched. opers»), оказалось равным 2,96 (реально
операции распределились в диапазоне от нуля до десяти в одной широкой команде). При
исполнении параллелизм, запланированный компилятором, был уменьшен за счет
различных блокировок, в среднем, в 1,34 раза до значения реального параллелизма
(колонка «real opers») 2,2 операции за такт. Тем не менее, была достигнута в 3,01 раза
более высокая логическая скорость (скорость исполнения при одинаковых тактовых
частотах колонка «log. speed gain») по отношению к эталонной машине Ultra 10 [3].
Наибольшие потери из-за блокировок были на задаче 181.mcf (2,44 раза) – в основном из-
за обработки нерегулярных данных в цикле, а также на задаче 176.gcc (1,49 раза) в
основном из-за большого размера кода и данных.
8
Рис. 1.
Параллелизм операций на пакете SPECcpu2000int
Важными для целочисленных задач оказались следующие пиковые оптимизации:
агрессивный inline для gzip, vpr, eon, gap, vortex; vprof для eon, gap; black hole для
parser, eon, gap, vortex; prefetch – для vpr, bzip2; ограничение дублирующих код
оптимизаций – для gcc, crafty, parser, bzip2; Osize-selective для gcc, crafty; list prefetch
для mcf; globals2regs для perlbmk, twolf. Дополнительный прирост производительности
был достигнут с помощью применения цикловой оптимизации конвейеризации с
аппаратной поддержкой (overlap) для задач gzip, bzip2, в которых доминируют циклы с
большим числом повторений.
1.3.2. Вещественные задачи
Цикловые оптимизации. В вещественных задачах гораздо чаще встречаются
циклы с большим числом повторений. Для оптимизации таких циклов используется их
программная конвейеризация, которая реализуется для архитектуры «Эльбрус» на базе
аппаратной поддержки с помощью оптимизации overlap. Эта оптимизация позволяет
полностью использовать возможности широкой команды, загрузив критическое
устройство исполнения на 100%, и не приводит к росту кода. Для эффективной работы
конвейеризированного цикла необходимо, чтобы обращения за данными из массивов в
9
памяти не блокировали выполнение из-за неготовности. Аппаратные средства
асинхронной предварительной подкачки данных, реализованные в архитектуре «Эльбрус»
и поддерживаемые в компиляторе с помощью оптимизации apb, минимизируют такие
блокировки. Для повышения эффективности загрузки устройств исполнения при
конвейеризации применяется операция внутренней раскрутки цикла (unroll). Эта
оптимизация, примененная к охватывающему циклу с последующим слиянием
внутренних циклов (unroll and fuse) улучшает результаты конвейеризации с
рекуррентными зависимостями между итерациями. Оптимизация loop interchange меняет
уровни вложенности циклов, позволяя увеличить число итераций наиболее вложенного
цикла и/или убрать мешающую конвейеризации рекуррентную зависимость. Оптимизация
loop unswitching позволяет вынести инвариантное условие из цикла, правда, при этом
создаются две копии цикла. Наконец, в отдельных случаях для циклов с небольшим,
известным при компиляции числом повторений, применяется оптимизация loop2scalar,
полностью преобразующая цикл в скалярную программу, что позволяет полностью
интегрировать тело цикла в охватывающую часть программы.
Межмодульные оптимизации. Важнейшей для циклов с регулярной обработкой
массивов является оптимизация размещения данных array padding. Это классическая
оптимизация по оптимальному взаимному размещению массивов в памяти за счет
добавления неиспользуемых фрагментов памяти, позволяет наиболее эффективно
использовать баночную структуру кэш-памяти второго уровня архитектуры «Эльбрус» и
существенно повышать производительность конвейеризированных циклов с
интенсивными обращениями в память. Специальная оптимизация memopt позволяет за
счет перераспределения в памяти измерений многомерного массива улучшать локальность
данных, а если это применяется к динамическим многомерным массивам, то и избавиться
от лишней косвенности.
Динамический анализ зависимостей. Для тех участков программы, в которых не
10
удается при компиляции определить отсутствие зависимостей, применяется динамический
метод анализа зависимостей (оптимизации rtmd, srtmd). При этом rtmd работает с циклами
и массивами, а srtmd – с ациклическими участками и, как правило, со структурами.
Параллелизм вещественных задач пакета SPECcpu2000fp, полученный в результате
пиковой оптимизации для ВК на базе микропроцессора «Эльбрус-S», представлен на
рис. 2. Среднее число операций, спланированных компилятором в выполненных широких
командах (колонка «sched. opers»), оказалось равным 5,52 (реально операции
распределились в диапазоне от нуля до двадцати в одной широкой команде). При
исполнении параллелизм, запланированный компилятором, был уменьшен за счет
блокировок, в основном, при обращении за данными в память, в среднем, в 1,57 раза до
значения реального параллелизма (колонка «real opers») 3,53 операции за такт. Тем не
менее, была достигнута в 7,66 раза более высокая логическая скорость (колонка «log.
speed gain») по отношению к эталонной машине Ultra 10. Параллельные возможности
архитектуры и успешное их использование с помощью компилятора особенно заметны на
задачах, в которых доминируют конвейеризированные циклы (swim, mgrid, applu, art,
equake, apsi). Совокупность оптимизаций, примененных к задаче art, позволила изменить
структуру данных, избавиться от существенного количества ненужных вычислений и
полностью использовать параллельные возможности архитектуры «Эльбрус» и
аппаратной поддержки конвейеризированных циклов это объясняет столь значительное
ускорение (76 раз) исполнения этой задачи.
11
Рис. 2.
Параллелизм операций на пакете SPECcpu2000fp
Важными для вещественных задач оказались следующие пиковые оптимизации:
overlap и apb для wupwise, swim, mgrid, applu, art,apsi; array padding для wupwise,
swim, mgrid, sixtrack, apsi; prefetch для equake, ammp, sixtrack; loop interchange для
swim; unroll and fuse – для mgrid; loop2scalar – для applu; srtmd – для ammp; memopt, loop
split, loop unswitching для art. Кроме цикловых оптимизаций, потребовались:
агрессивный inline для mesa, equake; ограничение дублирующих код оптимизаций – для
apsi.
2. Автоматическая векторизация
В архитектуре микропроцессора «Эльбрус», также как и в большинстве
современных микропроцессоров, присутствуют короткие векторные инструкции. Суть
этих инструкций заключается в параллельном исполнении нескольких одинаковых
операций над векторами упакованных данных. Как показывает практика, использование
векторных инструкций позволяет значительно увеличить производительность процессора
на задачах, в которых присутствует параллелизм на уровне данных.
12
В качестве примера рассмотрим цикл вычисления максимума (рис. 3). Векторная
версия данного цикла (справа) исполняется значительно быстрее скалярной версии (слева)
за счёт параллельного исполнения восьми итераций скалярного цикла за одну итерацию
векторного (ради простоты считаем, что N кратно 8). Векторная инструкция PMAXUB
принимает в качестве аргументов два вектора, содержащих по восемь байтовых элементов,
и выдает в качестве результата восьмибайтовый вектор. i-ый элемент результата
вычисляется как максимум из i-ых элементов аргументов.
Рис. 3
Внедрение векторных инструкций в код программы посредством ассемблерных
вставок либо вызовов специальных библиотечных функций представляет собой
достаточно трудоёмкую задачу, требующую высокой квалификации разработчиков
программного обеспечения. Поэтому в оптимизирующем компиляторе для архитектуры
«Эльбрус» встроена мощная система автоматической векторизации [8, 9], позволяющая в
большинстве случаев избавить программиста от необходимости ручной вставки
векторных инструкций в код программы. Эта система автоматически находит участки
программы, которые могут быть векторизованы, и заменяет в них скалярные инструкции
векторными. При этом от программиста не требуется каких-либо дополнительных усилий.
2.1. Базовые средства векторизации
Процесс автоматической векторизации в оптимизирующем компиляторе для
архитектуры «Эльбрус» состоит из следующих фаз: 1 канонизация промежуточного
представления, 2 вспомогательные преобразования циклов, 3 анализ и раскрутка
13
циклов и 4 – генерация векторного кода. При этом последние три фазы плотно
взаимодействуют друг с другом.
На фазе канонизации выполняется множество классических оптимизаций, таких
как сбор общих подвыражений и минимизация разветвлений управления. Кроме того, на
этой фазе распознаются идиомы специальных семантических конструкций, таких как
вычисление максимума или сложение с насыщением результата; эти конструкции
заменяются специальными фиктивными инструкциями. Основная цель данной фазы
упростить последующий анализ программы.
На фазе анализа компилятор производит анализ потоков управления, потоков
данных, диапазонов значений, зависимостей по данным, а также анализ выровненности
инструкций обращения к памяти. При этом последние два вида анализа являются
межпроцедурными. Результатом анализа является множество участков программы, в
которых присутствует параллелизм на уровне данных.
Анализ зависимостей по данным представляет собой серию проверок, сложность
которых прогрессивно увеличивается. Вначале компилятор пробует определить
независимость пары обращений к памяти с помощью простых проверок, имеющих
сложность O(1). Если простые проверки не дают положительного результата, запускаются
более сложные. В конечном счете, компилятор решает задачу пересечения адресов как
систему линейных диофантовых уравнений с помощью метода Фурье-Моцкина.
Крайне важным для системы автоматической векторизации является анализ
выровненности инструкций обращения к памяти. В архитектуре «Эльбрус» обращение в
память по невыровненному адресу приводит к возникновению исключительной ситуации
либо к блокировке конвейера зависимости от режима исполнения программы). При
векторизации происходит расширение формата инструкций обращений к памяти, в
результате чего они могут стать невыровненными. Для того чтобы избежать этого,
компилятор в таких случаях использует специальную технику векторизации, что влечет за
14
собой значительное снижение эффективности конечного кода. Анализ выровненности
позволяет определить, станет ли инструкция невыровненной в результате векторизации.
Таким образом, данный анализ позволяет в ряде случаев избежать высоких накладных
расходов, возникающих при векторизации обращений к памяти.
Если анализ цикла определил, что он может быть векторизован, компилятор далее
раскручивает этот цикл и заменяет в нём группы скалярных инструкций
соответствующими векторными инструкциями.
В качестве примера рассмотрим следующий цикл (рис. 4). Будем считать, что на
фазе анализа компилятор установил выровненность и независимость указателей a и b
(цикл слева). Тогда компилятор раскручивает цикл центре) и заменяет пару скалярных
операций умножения векторной операцией PFMUL, пару скалярных операций чтения из
массива a[] – векторным чтением, пару записей в массив b[] – векторной операцией записи
(цикл справа). При этом инвариантный скаляр x заменяется векторным X, значение
которого вычисляется перед циклом.
Рис. 4
2.2. Вспомогательные преобразования
Наряду со статическим анализом, оптимизирующий компилятор для архитектуры
«Эльбрус» позволяет получать информацию о компилируемой задаче динамически, во
время её исполнения. Важность динамических проверок сложно переоценить, поскольку
без них невозможно получение высокопроизводительного векторного кода для
15
большинства реальных задач.
В случае если статический анализ не позволяет определить независимость
обращений к памяти в цикле, компилятор может создать копию цикла и динамическую
проверку зависимостей по данным, передающую управление на одну из версий цикла.
Далее версия цикла без зависимостей векторизуется, а версия с зависимостями остаётся
скалярной.
Аналогичным образом компилятор поступает в случае, когда статический анализ не
позволяет определить выровненность некоторых обращений к памяти в цикле. В этом
случае создается копия цикла и динамическая проверка, передающая управление на одну
из версий цикла в зависимости от выровненности обращений к памяти. При этом обе
версии цикла могут быть векторизованы, однако цикл с выровненными обращениями к
памяти векторизуется значительно более эффективно. Таким образом, во время
исполнения программы выбирается наиболее эффективная версия цикла. Кроме того, в
некоторых случаях компилятор способен выровнять обращения к памяти с помощью
открутки нескольких первых итераций цикла.
В случае если цикл раскручен программистом вручную, компилятор выполняет
скрутку преобразование, обратное раскрутке цикла. Это позволяет применять к циклу
другие вспомогательные преобразования.
2.3. Векторизация рекуррентных выражений
Рекуррентным называется выражение в цикле, потребляющее свой результат,
вычисленный на одной из предыдущих итераций цикла. В общем случае такие выражения
принципиально не могут быть векторизованы. Тем не менее, оптимизирующий
компилятор для архитектуры «Эльбрус» позволяет векторизовать рекуррентные
выражения в важном частном случае редукции. Рассмотрим в качестве примера цикл
сложения элементов массива (рис. 5).
16
Рис. 5
В исходном цикле значение x, вычисленное на i-ой итерации, используется на (i+1)-
ой итерации. Векторизация такого цикла заключается в создании перед циклом
инициализации векторной переменной X, хранящей частичные суммы, вычислении
частичных сумм в цикле при помощи векторной инструкции сложения с насыщением
результата PADDUSB и суммировании частичных сумм после основного цикла.
2.4. Векторизация циклов с разветвлениями управления
Компилятор для архитектуры «Эльбрус» позволяет векторизовать циклы с
произвольными разветвлениями управления. Для этого используются инструкции
векторного сравнения, вырабатывающие битовые маски, элементы которых заполнены
единичными либо нулевыми битами в зависимости от результата сравнения отдельных
элементов сравниваемых векторов.
В качестве примера рассмотрим цикл вычисления минимума двух массивов
(рис. 6). Для векторизации такого цикла используется операция векторного сравнения
«больше» PCMPGTW, работающая с векторами, состоящими из двух слов. Полученная в
результате векторного сравнения маска P[0:1] используется в векторных операциях PAND,
PANDN и POR, выполняющих логические операции «и», «и-не» и «или», соответственно.
17
Рис. 6
Кроме этого, компилятор способен векторизовать циклы, содержащие выходы не по
счётчику. Суть векторизации таких циклов заключается в реорганизации кода внутри
цикла и создании специального компенсирующего кода, исполняемого при выходе из
цикла не по счётчику.
2.5. Экспериментальные результаты
Эффективность системы автоматической векторизации в оптимизирующем
компиляторе для архитектуры «Эльбрус» проверялась на задачах стандартных тестовых
пакетов SPEC. Максимальный прирост производительности составил 83%, 61%, 117% и
11% на задачах из пакетов SPEC CINT92, SPEC CFP95, SPEC CINT95 и SPEC CINT2000,
соответственно.
Кроме того, эффективность автоматической векторизации исследовалась на
функциях высокопроизводительной библиотеки векторных вычислений EML. Для
исследования использовались 373 функции этой библиотеки, реализующие наиболее
распространённые операции над векторами и матрицами. Средний прирост
производительности за счёт автоматической векторизации этих функций составил 52% и
37% в случае выровненных и невыровненных входных данных, соответственно. Скорость
работы отдельных функций удалось повысить почти в 10 раз.
3. Автоматическое распараллеливание на потоки управления
18
В архитектуре микропроцессоров «Эльбрус» и «МЦСТ-R» имеются средства
поддержки когерентного доступа в общую память для многоядерных и
многопроцессорных систем. Поддержка этих средств в оптимизирующем компиляторе
позволяет дополнительно повысить производительность программ, в которых
используется интенсивная обработка информации в циклах.
3.1. Общее описание функциональности
Разработанная в оптимизирующем компиляторе техника автоматического
распараллеливания [10, 11] позволяет проводить распараллеливание последовательных
задач, реализованных на языках C/С++. В рамках данной техники компилятор выделяет
участки последовательной программы, которые могут быть распараллелены. На данный
момент в компиляторе реализована только техника автоматического распараллеливания
циклов, т.к. в большинстве вычислительных задач наибольшую выгоду приносит
распараллеливание циклов. В разработанной технике циклы, подходящие для
распараллеливания, вырезаются компилятором в отдельные процедуры. В данные
процедуры передается управляющий параметр (идентификатор потока), с помощью
которого определяется исполняемая ветка и остальные параметры процедуры,
передающиеся через стек. Использование техники выреза циклов в отдельные процедуры
позволяет отказаться от использования дополнительных инструкций во внутреннем
представлении компилятора, с помощью которых обозначается параллельный участок
(подобный подход использован в компиляторе Intel). Недостаток такого подхода
заключается в том, что возникает необходимость адаптировать все оптимизации
компилятора для работы с введенными инструкциями. В результате, данная адаптация
может негативно сказаться на производительности отдельных оптимизаций.
Автоматическое распараллеливание может проводиться на любое количество
потоков. В частности, для комплекса «Эльбрус-3М1» распараллеливание проводится на
19
два потока. На рис. 7 показана схема исполнения распараллеленной программы. В данной
схеме используются интерфейсы EPL_INIT, EPL_SPLIT, EPL_JOIN,
EPL_SEND_SYNCHR, EPL_SYNCHR, EPL_FINAL, которые являются частью
разработанной библиотеки поддержки автоматического распараллеливания. Основное
назначение данных интерфейсов заключается в создании (удалении) потоков и
синхронизации действий между ними. Например, интерфейс EPL_INIT создает второй
поток, который после создания дожидается указателя на код и соответствующего
разрешения от основного потока (EPL_SPLIT) на его исполнение (интерфейс
EPL_RECEIVE_EVENT). В свою очередь первый поток после исполнения своей части
распараллеленного цикла дожидается окончания исполнения второй части цикла во
втором потоке (EPL_WAIT_SYNCHR).
Рис.7.
Схема исполнения распараллеленной программы
3.2. Техника автоматического распараллеливания
Все циклы распараллеливаются по базовой индуктивности [12], которая определяет
количество итераций цикла.
20
В левой части рис. 8 приведено гнездо циклов, состоящее из трех вложенных друг в
друга циклов. Переменные i, j, k соответствуют базовым индуктивностям этих циклов.
Базовая индуктивность должна быть представлена в следующей форме:
induct_var = oper(induct_var,const),
где: induct_var соответствует переменной базовой индуктивности; const соответствует
константе; oper соответствует операции сложения или вычитания.
Таким образом, при распараллеливании верхняя граница базовой индуктивности
(которая может быть и переменной в процедуре цикла, но обязательно инвариантной
внутри цикла) делится на два. В результате первая половина цикла исполняется на первом
потоке, вторая половина на втором. Необходимо отметить, что разработанная техника
автоматического распараллеливания позволяет распараллеливать как отдельный цикл, так
и целое гнездо циклов. На рис. 8 приведен пример распараллеленного гнезда циклов по
базовой индуктивности охватывающего цикла (i).
Рис. 8.
Пример распараллеленного гнезда циклов
Для поиска и корректного распараллеливания циклов используются несколько
типов анализа, которые базируются на использовании аналитических структур
оптимизирующего компилятора [12]:
21
1)анализ потока управления (Control-flow analysis);
2)анализ потока данных (Dataflow analysis);
3)анализ указателей (Pointer analysis) и зависимостей внутри цикла (Loop
dependence analysis).
Анализ потока управления используется для нахождения сводимых циклов. Цикл
является сводимым, если в данный цикл входят только две CFG-дуги (причем одна из них
обратная) [12]. Также в технике автоматического распараллеливания рассматриваются
только циклы с одной обратной CFG-дугой и одной CFG-дугой, являющейся выходом из
цикла.
Анализ потока данных позволяет определять особенности потока передачи данных
в цикле. Цикл может быть распараллелен без дополнительных преобразований, если в нем
имеется только одна редукция, соответствующая базовой индуктивности, и отсутствует
какая-либо передача данных из цикла по графу потока данных. В случае если имеется одна
или несколько побочных редукций, то при применении разработанной техники
распараллеливается не только базовая индуктивность, но и данные редукции. В случае
наличия передачи данных из цикла по графу потока данных в вырезанной процедуре,
исполняемой параллельно, создаются операции сохранения этих данных в памяти. В
исходной процедуре, которая содержала вырезанный цикл, эти данные восстанавливаются.
Анализ указателей и зависимостей внутри цикла позволяет выявлять меж-
итерационные зависимости между операциями, которые обращаются к одному и тому же
участку памяти и тем самым препятствуют распараллеливанию цикла по базовой
индуктивности.
3.3. Библиотека поддержки для автоматического распараллеливания
Для поддержки исполнения распараллеленных программ была создана библиотека
libepl, предоставляющая компилятору упрощенный интерфейс для управления потоками.
22
Эта библиотека управляет запуском и остановкой вспомогательных потоков,
распределением заданий между потоками, распределением потоков по вычислительным
ядрам и синхронизацией между ними. Реализовано несколько вариантов синхронизации,
переключение между которыми производится перед запуском распараллеленной
программы. Наибольшую производительность в задачах с короткими параллельными
участками показывает синхронизация при помощи активного ожидания (spinlock),
обеспечивающая накладные расходы на уровне нескольких сот тактов на один
параллельный участок, что позволяет распараллеливать гнезда циклов или даже
одиночные циклы, время исполнения которых измеряется, начиная от тысячи тактов.
Благодаря минимальным накладным расходам удается распараллеливать больше циклов и,
таким образом, сокращать ту часть кода, которая исполняется последовательно.
Для целей отладки и измерения производительности создано две вспомогательные
версии библиотеки, одна из которых проверяет корректность работы автоматического
распараллеливания, а другая измеряет длительность исполнения параллельных участков
программы и накладные расходы на синхронизацию и организацию многопоточной
обработки.
Кроме этого были созданы библиотеки динамической поддержки интерфейса
OpenMP для программного распараллеливания с расширениями OpenMP для языков C, C+
+ и Fortran, а также библиотеки поддержки распараллеливания на системах с
распределенной памятью. В отличие от библиотеки libepl, эти библиотеки используют
стандартные средства распараллеливания, не удерживающие поток на ядре, что приводит
к заметному увеличению времени, необходимому для синхронизации. С другой стороны,
использование расширений OpenMP снабжает компилятор необходимыми подсказками
относительно возможности распараллеливания циклов, которые без таких подсказок не
всегда удается распараллелить только с помощью компилятора.
23
3.4. Результаты применения автоматического распараллеливания
Для оценки эффективности автоматического распараллеливания использовались
задачи пакетов SPEC95 и SPEC2000. В рамках данного тестирования было проведено три
различных запуска каждой из задач: в первом запуске осуществлялось исполнение
последовательной версии задачи, скомпилированной с использованием пиковых опций; во
втором – исполнение автоматически распараллеленной задачи, скомпилированной с
использованием тех же пиковых опций; в третьем одновременное исполнение ранее
скомпилированной последовательной версии на разных ядрах комплекса «Эльбрус-3М1».
Третий запуск позволяет сделать оценку максимально-возможного ускорения
автоматически распараллеленной задачи, учитывая влияние подсистемы памяти.
Можно было бы предположить, что при полном распараллеливании задачи и
отсутствии конфликтов при обращении в память параллельный вариант будет в два раза
быстрее последовательного варианта. Но в действительности коэффициенты ускорения
распараллеленных задач оказались значительно меньше 2 (табл. 1, колонка REAL для
автоматического распараллеливания и колонка MEM_IMP для одновременного запуска
двух одинаковых задач). Это объясняется тем, что при распараллеливании задачи поток
запросов в память увеличивается, что приводит к увеличению конфликтов внутри
подсистемы памяти, а, следовательно, и к замедлению распараллеленной версии задачи.
Причем конфликты снижают производительность системы не только при
распараллеливании одной задачи, но и при одновременном исполнении двух одинаковых
задач.
Для анализа данной ситуации была собрана детальная статистика об исполнении
последовательных и распараллеленных версий задач, представленная в табл. 1:
поле REAL соответствует реальному ускорению распараллеленной задачи по
сравнению с последовательным вариантом;
поле MEM_IMP соответствует оценке максимально-возможного ускорения
24
автоматически распараллеленной задачи, учитывая влияние подсистемы памяти;
поле EXEC соответствует отношению количества исполненных широких команд
в последовательной версии к количеству широких команд, исполненных в
распараллеленной версии в первом потоке;
поле L1 MISS соответствует полю EXEC, дополнительно учитывающему
количество блокировок из-за промахов в L1-кэш в последовательной версии и в первом
потоке распараллеленной версии при исполнении операций чтения;
поле APB MISS соответствует полю L1 MISS, дополнительно учитывающему
количество блокировок, возникших в основном из-за APB промахов и промахов в L2-кэш,
в последовательной версии и в первом потоке распараллеленной версии;
поле NOP соответствует полю APB MISS, дополнительно учитывающему
количество пустых команд, исполненных в последовательной версии и в первом потоке
распараллеленной версии;
поле NO COMMAND соответствует полю NOP, дополнительно учитывающему
количество блокировок из-за промахов в L1-кэш команд в последовательной версии и в
первом потоке распараллеленной версии.
Таблица 1
Статистика исполнения задач пакета SPEC95 и SPEC2000
BENCH REAL MEM_IMP EXEC L1 MISS APB MISS NOP NO_COM
tomcatv 1,37 1,75 1,48 1,46 1,40 1,37 1,36
swim 1,49 1,50 1,96 1,94 1,49 1,49 1,48
mgrid 1,61 1,87 1,98 1,85 1,65 1,63 1,62
hydro2d 1,30 1,47 1,71 1,68 1,26 1,25 1,25
art 1,37 1,63 1,46 1,38 1,45 1,41 1,41
Прирост производительности ВК при одновременном исполнении двух одинаковых
задач составил в среднем 1,63, что значительно меньше 2. Но этот результат характерен
только для задач со столь интенсивным потоком обращений в память
25
Абсолютный прирост производительности за счет распараллеливания на пяти
рассмотренных задачах составляет в среднем 1,42. Эффективность автоматического
распараллеливания оптимизирующим компилятором приведенных задач можно оценить
на основе коэффициентов поля EXEC, т.к. именно этот показатель позволяет соотнести
количество широких команд, исполненных в последовательной версии и в
распараллеленной версии. Для задач swim и mgrid данный коэффициент близок к 2. Это
значит, что задачи были почти полностью распараллелены. В случае задач tomcatv и
hydro2d подобного результата не удалось достичь, т.к. значимая часть времени исполнения
данных задач уходит на исполнение функций ввода/вывода, которые не могут быть
распараллелены компилятором. В случае задачи art такой коэффициент был получен из-за
того, что не все циклы удалось распараллелить. В среднем эффективность
автоматического распараллеливания достигает 77% по сравнению с одновременным
исполнением двух задач, что подтверждает в целом эффективность автоматического
распараллеливания.
Таким образом, поле EXEC определяет максимально возможное ускорение
распараллеленной задачи по сравнению с последовательным вариантом. Данные
ускорения не удалось достичь на практике из-за влияния различных видов блокировок при
работе с памятью, что подтверждается значениями полей L1 MISS и APB MISS. Истинная
природа этих блокировок, скорее всего, связана с влиянием всей подсистемы памяти в
целом, что является предметом будущего исследования.
Заключение
В работе рассмотрены методы распараллеливания программ на уровне операций,
включая программную конвейеризацию, а также методы автоматической векторизации и
распараллеливания программ в оптимизирующем компиляторе. Эти методы
демонстрируют высокую эффективность и позволяют существенно повышать
26
производительность широкого класса программ за счет параллелизма на уровне операций,
а также получать дополнительный прирост производительности для программ, в которых
используются форматы данных, позволяющие использовать операции над короткими
векторами, и циклы, допускающие распараллеливание на потоки управления.
За счет распараллеливания на уровне операций логическая скорость выполнения
целочисленных программ на одном процессоре с архитектурой «Эльбрус» возрастает в 3,01
раза по сравнению с эталонной суперскалярной машиной (до четырех операций за такт без
изменения порядка операций) Ultra 10 на пакете SPECcpu2000int. При этом среднее число
операций, спланированных компилятором в выполненных широких командах, составляет
2,96 за такт и 2,2 за такт с учетом различных блокировок при реальном исполнении. Для
10 задач пакета SPECcpu2000fp логическая скорость возрастает в 7,66 раз по сравнению с
Ultra 10 за счет параллельных возможностей архитектуры и конвейеризации циклов с
аппаратной поддержкой. При этом среднее число операций, спланированных
компилятором в выполненных широких командах, составляет 5,52 операций за такт
(максимальное значение 11,59 операций за такт), но по сравнению с целочисленными
задачами оно более заметно снижается за счет блокировок основном из-за доступа в
память) до среднего значения 3,53 операций за такт (максимальное значение 6,59
операций за такт).
Максимальный прирост производительности за счет автоматической векторизации
составил 83%, 61%, 117% и 11% на задачах из пакетов SPEC CINT92, SPEC CFP95, SPEC
CINT95 и SPEC CINT2000, соответственно. Средний прирост производительности на 373
функциях библиотеки, реализующих наиболее распространённые операции над векторами
и матрицами, за счёт их автоматической векторизации составил 52% и 37% в случае
выровненных и невыровненных входных данных, соответственно. Скорость работы
отдельных функций удалось повысить почти в 10 раз.
Абсолютный прирост производительности за счет распараллеливания на пяти
27
задачах из пакетов SPEC95, SPEC2000 составляет для двухпроцессорного ВК «Эльбрус-
3М1» в среднем 1,42, или 77% от одновременного исполнения двух задач.
Работа выполнена при поддержке РФФИ: проект № 10-08-01156а
Литература
1. Кузьминский М.Б. Куда идет «Эльбрус». – «Открытые системы», 2011, №7.
2. Ким А.К., Волконский В.Ю., Груздов Ф.А., Михайлов М.С., Парахин Ю.Н.,
Сахин Ю.Х., Семенихин С.В., Слесарев М.В., Фельдман В.М. Микропроцессорные
вычислительные комплексы с архитектурой «Эльбрус» и их развитие. В сб.: Тезисы
докладов 3-й международной научно-практической конференции «Современные
информационные технологии и ИТ-образование», М., 6-9 декабря 2008, с. 12-31.
3. http://www.spec.org/osg/cpu2000/ Standard Performance Evaluation Corporation
(SPEC), пакет для оценки производительности.
4. Ким А.К., Волконский В.Ю., Груздов Ф.А., Михайлов М.С., Парахин Ю.Н.,
Сахин Ю.Х., Семенихин С.В., Слесарев М.В., Фельдман В.М. Микропроцессорные
вычислительные комплексы с архитектурой «Эльбрус» и их программное обеспечение.
«Вопросы радиоэлектроники», сер. ЭВТ, 2009, вып. 3, с. 5-37.
5. Галазин А.Б., Грабежной А.В. Эффективное взаимодействие микропроцессора и
подсистемы памяти с использованием асинхронной предварительной подкачки данных. –
«Информационные технологии», 2007, №5.
6. Галазин А.Б., Грабежной А.В., Нейман-заде М.И. Оптимизация размещения
данных для эффективного исполнения программ на архитектуре с многобанковой кэш-
памятью данных. – «Информационные технологии», 2008, №3, c. 35-39.
7. Galazin A., Neiman-zade M. An Unsophisticated Cooperative Approach to Prefetching
Linked Data Structures. – Proceedings of the Eighth Workshop on Explicitly Parallel Instruction
Computing Architectures and Compiler Technology (EPIC-8). April 24, 2010, Toronto, Canada.
8. Ермолицкий А., Шлыков С. Автоматическая векторизация выражений
28
оптимизирующим компилятором. Приложение к журналу «Информационные
технологии», 2008, №11.
9. Волконский В., Ермолицкий А., Ровинский Е. Развитие метода векторизации
циклов при помощи оптимизирующего компилятора. // Высокопроизводительные
вычислительные системы и микропроцессоры. Сборник научных трудов ИМВС РАН,
2005, вып. 8, с. 34-56.
10. Mukhanov L., Ilyin P., Ermolitsky A., Grabezhnoy A., Shlykov S., Breger A. Thread-
level Automatic Parallelization in the Elbrus Optimizing Compiler. // Parallel and Distributed
Computing and Systems (PDCS-2010), The IASTED International Conference on Informatics
2010 series. 2010.
11. Волконский В.Ю., Грабежной А.В., Муханов Л.Е., Нейман-заде М.И.
Исследование влияния подсистемы памяти на производительность распараллеленных
программ. – «Вопросы радиоэлектроники», сер. ЭВТ, 2011, вып. 3, С.22-37.
12. S.S. Muchnick. Advanced compiler design and implementation. San Francisco, CA,
USA: Morgan Kaufmann Publishers Inc., 1997.
29
Chapter
This paper briefly examines the advantages and disadvantages of Elbrus architectures as building blocks for Seismic Processing cluster system. The configuration of a heterogeneous clustered system build for research Oil and Gas Company is examined in more detail. In this system, processing nodes with different architecture (x86, GPU and e2k) are integrated in a single computing cluster through a high performance global networking topologies. Heterogeneous cluster with Elbrus node provides a good opportunity for software cross-architectural migration. To demonstrate the potential of Elbrus nodes usage, the multispectral data analysis application has been optimized for e2k architecture. Paper includes performance results and scalability analysis for implemented module using e2k and x86 nodes. It is anticipated that the heterogeneous cluster with Elbrus node will form an integral part of the preparation process of the domestic supercomputer under development, based on the Elbrus processors. The basic software stack in Seismic Processing will be naturally emerged on the use of Elbrus node as part of the heterogeneous cluster.
Куда идет «Эльбрус».-«Открытые системы»
  • М Б Кузьминский
Кузьминский М.Б. Куда идет «Эльбрус».-«Открытые системы», 2011, №7.
Микропроцессорные вычислительные комплексы с архитектурой «Эльбрус» и их развитие. -В сб.: Тезисы докладов 3-й международной научно-практической конференции «Современные информационные технологии и ИТ-образование
  • А К Ким
  • В Ю Волконский
  • Ф А Груздов
  • М С Михайлов
  • Ю Н Парахин
  • Ю Х Сахин
  • С В Семенихин
  • М В Слесарев
  • В М Фельдман
Ким А.К., Волконский В.Ю., Груздов Ф.А., Михайлов М.С., Парахин Ю.Н., Сахин Ю.Х., Семенихин С.В., Слесарев М.В., Фельдман В.М. Микропроцессорные вычислительные комплексы с архитектурой «Эльбрус» и их развитие. -В сб.: Тезисы докладов 3-й международной научно-практической конференции «Современные информационные технологии и ИТ-образование», М., 6-9 декабря 2008, с. 12-31.
Микропроцессорные вычислительные комплексы с архитектурой «Эльбрус» и их программное обеспечение
  • Ю Х Сахин
  • С В Семенихин
  • М В Слесарев
  • В М Фельдман
Сахин Ю.Х., Семенихин С.В., Слесарев М.В., Фельдман В.М. Микропроцессорные вычислительные комплексы с архитектурой «Эльбрус» и их программное обеспечение. -«Вопросы радиоэлектроники», сер. ЭВТ, 2009, вып. 3, с. 5-37.
Эффективное взаимодействие микропроцессора и подсистемы памяти с использованием асинхронной предварительной подкачки данных
  • А Б Галазин
  • А В Грабежной
Галазин А.Б., Грабежной А.В. Эффективное взаимодействие микропроцессора и подсистемы памяти с использованием асинхронной предварительной подкачки данных. -«Информационные технологии», 2007, №5.
Нейман-заде М.И. Оптимизация размещения данных для эффективного исполнения программ на архитектуре с многобанковой кэшпамятью данных
  • А Б Галазин
  • А В Грабежной
Галазин А.Б., Грабежной А.В., Нейман-заде М.И. Оптимизация размещения данных для эффективного исполнения программ на архитектуре с многобанковой кэшпамятью данных. -«Информационные технологии», 2008, №3, c. 35-39.
An Unsophisticated Cooperative Approach to Prefetching Linked Data Structures
  • A Galazin
  • M Neiman-Zade
Galazin A., Neiman-zade M. An Unsophisticated Cooperative Approach to Prefetching Linked Data Structures. -Proceedings of the Eighth Workshop on Explicitly Parallel Instruction Computing Architectures and Compiler Technology (EPIC-8). April 24, 2010, Toronto, Canada.
Развитие метода векторизации циклов при помощи оптимизирующего компилятора. // Высокопроизводительные вычислительные системы и микропроцессоры. Сборник научных трудов ИМВС РАН
  • В Волконский
  • А Ермолицкий
  • Е Ровинский
Волконский В., Ермолицкий А., Ровинский Е. Развитие метода векторизации циклов при помощи оптимизирующего компилятора. // Высокопроизводительные вычислительные системы и микропроцессоры. Сборник научных трудов ИМВС РАН, 2005, вып. 8, с. 34-56.
Threadlevel Automatic Parallelization in the Elbrus Optimizing Compiler. // Parallel and Distributed Computing and Systems (PDCS-2010)
  • L Mukhanov
  • P Ilyin
  • A Ermolitsky
  • A Grabezhnoy
  • S Shlykov
  • A Breger
Mukhanov L., Ilyin P., Ermolitsky A., Grabezhnoy A., Shlykov S., Breger A. Threadlevel Automatic Parallelization in the Elbrus Optimizing Compiler. // Parallel and Distributed Computing and Systems (PDCS-2010), The IASTED International Conference on Informatics 2010 series. 2010. 11. Волконский В.Ю., Грабежной А.В., Муханов Л.Е., Нейман-заде М.И.
Автоматическая векторизация выражений 28 оптимизирующим компилятором. -Приложение к журналу «Информационные технологии
  • А Ермолицкий
  • С Шлыков
Ермолицкий А., Шлыков С. Автоматическая векторизация выражений 28 оптимизирующим компилятором. -Приложение к журналу «Информационные технологии», 2008, №11.