Skip to content

Гасенин Леонид. Технология OMP. Поиск кратчайших путей из одной вершины (алгоритм Дейкстры). Вариант 21.#237

Closed
Leontin16 wants to merge 31 commits intolearning-process:masterfrom
Leontin16:gasenin_l_djstra_omp
Closed

Conversation

@Leontin16
Copy link
Contributor

@Leontin16 Leontin16 commented Mar 3, 2026

  • Задача: Поиск кратчайших путей из одной вершины (алгоритм Дейкстры).

  • Вариант: 21.

  • Технология: OMP.

  • Описание:
    В OMP версии реализован классический алгоритм Дейкстры с линейным поиском вершины, имеющей минимальное текущее расстояние (сложность O(n²)). Граф строится неявно как полный: вес ребра между вершинами i и j равен |i - j|. Начальная вершина — 0. Входной параметр InType задаёт количество вершин n. Выходное значение — сумма кратчайших расстояний от вершины 0 до всех вершин (включая саму вершину 0). Благодаря специальному виду графа ожидаемый результат известен аналитически:

    $$\text{sum} = \frac{n(n-1)}{2}$$

    Это позволяет легко проверить корректность работы алгоритма.

    Параллельная реализация:

    • Количество потоков определяется один раз в начале выполнения с помощью omp_get_num_threads() внутри параллельной области.
    • Поиск вершины с минимальным расстоянием (FindGlobalVertexOMP) распараллелен следующим образом:
      • Каждый поток ищет локальный минимум среди непосещённых вершин в своей порции итераций (цикл с #pragma omp for nowait).
      • Локальные минимумы и соответствующие вершины сохраняются в общие массивы.
      • С помощью #pragma omp barrier обеспечивается завершение локального поиска всеми потоками.
      • В #pragma omp single один поток выбирает глобальный минимум из локальных и помечает выбранную вершину как посещённую.
    • Релаксация рёбер (RelaxEdgesOMP) выполняется параллельно для всех вершин, кроме текущей глобальной, с использованием #pragma omp parallel for. Для каждого соседа вычисляется новый путь и при необходимости обновляется расстояние.
    • Итоговая сумма расстояний (CalculateTotalSumOMP) считается с редукцией (#pragma omp parallel for reduction(+:total_sum)), что позволяет избежать гонок данных.
    • Все критические секции (обновление глобальной вершины, массива visited) защищены либо атомарными операциями, либо выполняются внутри single, что гарантирует корректность при параллельном выполнении.
  • Тестирование:

    • Функциональные тесты для n = 3, 5, 7 проверяют совпадение полученной суммы с ожидаемой (n(n-1)/2).
    • Перформанс-тесты используют n = 200 для измерения времени выполнения и сравнения с последовательной версией.
    • Для организации тестов применяются готовые утилиты ppc::util::BaseRunFuncTests и ppc::util::BaseRunPerfTests.

Чек-лист

  • Статус CI: Все CI-задачи (сборка, тесты, генерация отчёта) успешно проходят на моей ветке в моем форке
  • Директория и именование задачи: Я создал директорию с именем <фамилия>_<первая_буква_имени>_<короткое_название_задачи>
  • Полное описание задачи: Я предоставил полное описание задачи в теле pull request
  • clang-format: Мои изменения успешно проходят clang-format локально в моем форке (нет ошибок форматирования)
  • clang-tidy: Мои изменения успешно проходят clang-tidy локально в моем форке (нет предупреждений/ошибок)
  • Функциональные тесты: Все функциональные тесты успешно проходят локально на моей машине
  • Тесты производительности: Все тесты производительности успешно проходят локально на моей машине
  • Ветка: Я работаю в ветке, названной точно так же, как директория моей задачи
    (например, nesterov_a_vector_sum), а не в master
  • Правдивое содержание: Я подтверждаю, что все сведения, указанные в этом pull request, являются точными и
    достоверными

@Leontin16 Leontin16 requested a review from allnes as a code owner March 3, 2026 15:57
@Leontin16
Copy link
Contributor Author

Шаблон оформления патчей:
номер.вариант.фиксы clang-tidy.оптимизация.покрытие.omp.остальное

@Leontin16
Copy link
Contributor Author

Leontin16 commented Mar 3, 2026

Тесты падают по причине внутренних ошибок серваков гита (HTTP 500), попробую запушить еще один пустой коммит, если не пройдет, попробую завтра ¯ \ (ツ) / ¯

@Leontin16
Copy link
Contributor Author

Все понятно
image

Ramzan8-88 pushed a commit to Ramzan8-88/ppc-2026-threads that referenced this pull request Mar 4, 2026
…е. Вариант 4. (learning-process#237)

## Описание
- Задача: минимальное значение в векторе
- Вариант: 4
- Технология: SEQ|MPI

## Описание алгоритма (последовательная версия)
  1. Инициализировать переменную `minimum` первым элементом вектора.  
  2. Для каждого последующего элемента `v[i]`:  
- Выбрать минимальное между `minimum` и `v[i]` и записать в `minimum`.
  3. Вернуть значение `minimum`.

## Схема распараллеливания (MPI)
1. **Инициализация**
Все процессы входят в коммуникатор `MPI_COMM_WORLD`. Каждый процесс
получает свой ранг и общее количество процессов.

2. **Передача размера**
Процесс с рангом 0 вычисляет длину входного вектора и рассылает её всем
процессам через `MPI_Bcast`. На всех остальных ранках массив входных
данных (`GetInput()`) остаётся пустым.

3. **Распределение данных между процессами**
Распределение выполняется почти равномерно: базовый размер фрагмента —
`base = n / size`, остаток — `rem = n % size`.
Первые rem процессов получают по `base + 1` элементу, остальные — по
`base`.
Процесс 0 формирует массивы:
- `counts` — количество элементов для каждого процесса,
- `displs` — смещения начала подмассива.
Эти массивы инициализируются нулями на всех ранках для безопасности.
Затем выполняется вызов `MPI_Scatterv`, где:
- процесс 0 отправляет фрагменты исходного вектора,
- остальные процессы получают только свои части, передавая `nullptr` в
качестве sendbuf, sendcounts и displs.
Если процесс получил нулевой объём данных (`size_l == 0`), то указатель
на локальный буфер может быть `nullptr`, что безопасно при MPI.

4. **Локальный минимум**
Каждый процесс последовательно вычисляет минимальный элемент своего
подмассива (`vec_l`).
Для процессов с нулевым объёмом данных локальный минимум остаётся равным
`INT_MAX`.

5. **Глобальная редукция**
Локальные минимумы всех процессов объединяются вызовом `MPI_Allreduce` с
операцией `MPI_MIN`. Каждый процесс получает одинаковое значение —
глобальный минимум.

6. **Завершение**
Полученный глобальный минимум записывается в выходную переменную
`GetOutput()`.

## Чек-лист:
- [x] Статус CI: Все CI-задачи (сборка, тесты, генерация отчёта) успешно
проходят на моей ветке в моем форке
- [x] Директория и именование задачи: Я создал директорию с именем
<фамилия>_<первая_буква_имени>_<короткое_название_задачи>
- [x] Полное описание задачи: Я предоставил полное описание задачи в
теле pull request
- [x] clang-format: Мои изменения успешно проходят clang-format локально
в моем форке (нет ошибок форматирования)
- [x] clang-tidy: Мои изменения успешно проходят clang-tidy локально в
моем форке (нет предупреждений/ошибок)
- [x] Функциональные тесты: Все функциональные тесты успешно проходят
локально на моей машине
- [x] Тесты производительности: Все тесты производительности успешно
проходят локально на моей машине
- [x] Ветка: Я работаю в ветке, названной точно так же, как директория
моей задачи (например, nesterov_a_vector_sum), а не в master
- [x] Правдивое содержание: Я подтверждаю, что все сведения, указанные в
этом pull request, являются точными и достоверными
@Leontin16 Leontin16 closed this Mar 8, 2026
@Leontin16 Leontin16 deleted the gasenin_l_djstra_omp branch March 8, 2026 13:48
Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment

Projects

None yet

Development

Successfully merging this pull request may close these issues.

1 participant